862 resultados para Goal-directed navigation


Relevância:

20.00% 20.00%

Publicador:

Resumo:

L’utilisation d’Internet prend beaucoup d’ampleur depuis quelques années et le commerce électronique connaît une hausse considérable. Nous pouvons présentement acheter facilement via Internet sans quitter notre domicile et avons accès à d’innombrables sources d’information. Cependant, la navigation sur Internet permet également la création de bases de données détaillées décrivant les habitudes de chaque utilisateur, informations ensuite utilisées par des tiers afin de cerner le profil de leur clientèle cible, ce qui inquiète plusieurs intervenants. Les informations concernant un individu peuvent être récoltées par l’interception de données transactionnelles, par l’espionnage en ligne, ainsi que par l’enregistrement d’adresses IP. Afin de résoudre les problèmes de vie privée et de s’assurer que les commerçants respectent la législation applicable en la matière, ainsi que les exigences mises de l’avant par la Commission européenne, plusieurs entreprises comme Zero-knowledge Systems Inc. et Anonymizer.com offrent des logiciels permettant la protection de la vie privée en ligne (privacy-enhancing technologies ou PETs). Ces programmes utilisent le cryptage d’information, une méthode rendant les données illisibles pour tous à l’exception du destinataire. L’objectif de la technologie utilisée a été de créer des systèmes mathématiques rigoureux pouvant empêcher la découverte de l’identité de l’auteur même par le plus déterminé des pirates, diminuant ainsi les risques de vol d’information ou la divulgation accidentelle de données confidentielles. Malgré le fait que ces logiciels de protection de la vie privée permettent un plus grand respect des Directives européennes en la matière, une analyse plus approfondie du sujet témoigne du fait que ces technologies pourraient être contraires aux lois concernant le cryptage en droit canadien, américain et français.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

L'interface cerveau-ordinateur (ICO) décode les signaux électriques du cerveau requise par l’électroencéphalographie et transforme ces signaux en commande pour contrôler un appareil ou un logiciel. Un nombre limité de tâches mentales ont été détectés et classifier par différents groupes de recherche. D’autres types de contrôle, par exemple l’exécution d'un mouvement du pied, réel ou imaginaire, peut modifier les ondes cérébrales du cortex moteur. Nous avons utilisé un ICO pour déterminer si nous pouvions faire une classification entre la navigation de type marche avant et arrière, en temps réel et en temps différé, en utilisant différentes méthodes. Dix personnes en bonne santé ont participé à l’expérience sur les ICO dans un tunnel virtuel. L’expérience fut a était divisé en deux séances (48 min chaque). Chaque séance comprenait 320 essais. On a demandé au sujets d’imaginer un déplacement avant ou arrière dans le tunnel virtuel de façon aléatoire d’après une commande écrite sur l'écran. Les essais ont été menés avec feedback. Trois électrodes ont été montées sur le scalp, vis-à-vis du cortex moteur. Durant la 1re séance, la classification des deux taches (navigation avant et arrière) a été réalisée par les méthodes de puissance de bande, de représentation temporel-fréquence, des modèles autorégressifs et des rapports d’asymétrie du rythme β avec classificateurs d’analyse discriminante linéaire et SVM. Les seuils ont été calculés en temps différé pour former des signaux de contrôle qui ont été utilisés en temps réel durant la 2e séance afin d’initier, par les ondes cérébrales de l'utilisateur, le déplacement du tunnel virtuel dans le sens demandé. Après 96 min d'entrainement, la méthode « online biofeedback » de la puissance de bande a atteint une précision de classification moyenne de 76 %, et la classification en temps différé avec les rapports d’asymétrie et puissance de bande, a atteint une précision de classification d’environ 80 %.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

MHCII molecules expose a weave of antigens, which send survival or activation signals to T lymphocytes. The ongoing process of peptide binding to the MHC class II groove implicates three accessory molecules: the invariant chain, DM and DO. The invariant chain folds and directs the MHCII molecules to the endosomal pathway. Then, DM exchanges the CLIP peptide, which is a remnant of the degraded invariant chain, for peptides of better affinity. Expressed in highly specialized antigen presenting cells, DO competes with MHCII molecules for DM binding and favors the presentation of receptor-internalized antigens. Altogether, these molecules exhibit potential immunomodulatory properties that can be exploited to increase the potency of peptide vaccines. DO requires DM for maturation and to exit the ER. Interestingly, it is possible to monitor this interaction through a conformation change on DOβ that is recognized by the Mags.DO5 monoclonal antibody. Using Mags.DO5, we showed that DM stabilizes the interactions between the DO α1 and β1 chains and that DM influences DO folding in the ER. Thus, the Mags.DO5+ conformation correlates with DO egress from the ER. To further evaluate this conformation change, directed evolution was applied to DO. Of the 41 unique mutants obtained, 25% were localized at the DM-DO binding interface and 12% are at the solvent-exposed β1 domain, which is thought to be the Mags.DO5 epitope. In addition, I used the library to test the ability of HLA-DO to inhibit HLA-DM and sorted for the amount of CLIP. Interestingly, most of the mutants showed a decrease inhibitory effect, supporting the notion that the intrinsic instability of DO is a required for its function. Finally, these results support the model in which DO competes against classical MHCII molecules by sequestering DM chaperone’s function. MHCII molecules are also characterized by their ability to present superantigens, a group of bacterial or viral toxins that coerces MHCII-TCR binding in a less promiscuous fashion than what is observed in a canonical setting. While the mechanism of how bacterial superantigens form trimeric complexes with TCR and MHCII is well understood, the mouse mammary tumor virus superantigens (vSAG) are poorly defined. In the absence of a crystal structure, I chose a functional approach to examine the relation between vSAG, MHCII and TCR with the goal of uncovering the overall trimolecular architecture. I showed that TCR concomitantly binds both the MHCII α chain and the vSAG and that TCR-MHCII docking is almost canonical when coerced by vSAGs. Because many peptides may be tolerated in the MHCII groove, the pressure exerted by vSAG seems to tweak conventional TCR-MHCII interactions. Furthermore, my results demonstrate that vSAG binding to MHCII molecules is conformation-dependent and abrogated by the CLIP amino-terminal residues extending outside the peptide-binding groove. In addition, they also suggest that vSAGs cross-link adjacent MHCIIs and activate T cells via a TGXY motif.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

This research project is a contribution to the global field of information retrieval, specifically, to develop tools to enable information access in digital documents. We recognize the need to provide the user with flexible access to the contents of large, potentially complex digital documents, with means other than a search function or a handful of metadata elements. The goal is to produce a text browsing tool offering a maximum of information based on a fairly superficial linguistic analysis. We are concerned with a type of extensive single-document indexing, and not indexing by a set of keywords (see Klement, 2002, for a clear distinction between the two). The desired browsing tool would not only give at a glance the main topics discussed in the document, but would also present relationships between these topics. It would also give direct access to the text (via hypertext links to specific passages). The present paper, after reviewing previous research on this and similar topics, discusses the methodology and the main characteristics of a prototype we have devised. Experimental results are presented, as well as an analysis of remaining hurdles and potential applications.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

L'objectif de cette étude est d'apprendre à créer de nouveaux matériaux moléculaires par design. À l'heure actuelle, il n'existe aucune méthode générale pour la prédiction des structures et des propriétés, mais des progrès importants ont été accomplis, en particulier dans la fabrication de matériaux moléculaires ordonnés tels que des cristaux. En ces matériaux, l'organisation peut être contrôlée efficacement par la stratégie de la tectonique moléculaire. Cette approche utilise des molécules appelées “tectons”, qui peuvent s’associer de manière dirigée par des interactions non covalentes prévisibles. De cette façon, la position de chaque molécule par rapport à ses voisins peut être programmée avec un degré élevé de fiabilité pour créer des cristaux et d'autres matériaux organisés avec des caractéristiques et des propriétés structurelles souhaitables. Le travail que nous allons décrire est axé sur l'utilisation de l'association des cations bis(aminidinium) avec des carboxylates, sulfonates, phosphonates et phosphates, afin de créer des réseaux moléculaires prévisibles. Ces réseaux promettent d'être particulièrement robuste, car ils sont maintenus ensemble par de multiples liaisons hydrogène assistées par des interactions électrostatiques.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

L’étude qui nous concerne vise à mieux comprendre la violence en milieu carcéral. C’est à l’aide d’entrevues menées auprès de treize hommes incarcérés à l’Unité spéciale de détention, une unité canadienne spécifiquement conçue pour loger des personnes qui ont fait usage de violence intra murale ou sont soupçonné de l’avoir fait, que nous avons tenté d’atteindre l’objectif principal de ce projet. Plus spécifiquement, le point de vue des participants a été recueilli sur l’incarcération, sur les moyens utilisés afin de s’accoutumer aux défis de l’enfermement ainsi que la manière dont les individus justifient l’usage de violence dans ce contexte. Les résultats de nos analyses suggèrent que le milieu carcéral est un monde hostile et imprévisible où les individus se perçoivent constamment vulnérables à de multiples formes d’agression. Placés en hyper vigilance et orientés vers la survie, les détenus font usage de diverses stratégies d’adaptation afin de répondre aux situations difficiles qu’ils rencontrent en contexte de perte de liberté. La violence représente donc un des moyens dont disposent les individus pour survivre à l’intérieur des murs. Les diverses formes d’adaptation violente rencontrées en milieu carcéral peuvent ainsi informer sur les enjeux de survie présents dans un milieu et donc, du risque de violence ou de victimisation dans ce milieu, que cette violence soit interpersonnelle, collective, auto dirigée, axée sur la fuite ou contre les biens. Puisque l’usage de violence par une personne engendre une possibilité accrue de choisir la violence pour une autre, et ce, avec les conséquences qui s’en suivent pour les détenus et les membres du personnel, nous avons tenté d’identifier et de comprendre les diverses logiques d’action qui motivent le choix d’avoir recours à la violence dans les institutions carcérales. Or, il appert que certaines caractéristiques des individus tendent à faire augmenter le risque pour une personne d’avoir recours à la violence carcérale. De même, il semble que certaines institutions sont davantage propices à l’usage de violence que d’autres. De surcroît, des éléments appartenant aux individus et au milieu en interrelation semblent favoriser la possibilité qu’un condamné fasse usage de violence intra murale. Ainsi, le recours à la violence est davantage probable si elle est légitimée par les individus et le milieu, si le niveau d’adhésion aux valeurs des sous-cultures délinquantes des individus est élevé et si la philosophie du milieu en favorise le maintien, si des groupes influents en quête de contrôle et de pouvoir sont présents dans le milieu et qu’un individu désire y être affilié, s’il y a présence de marchés illicites comme réponse à la privation et qu’un individu y participe ou encore, si le milieu et l’individu sont pris dans l’engrenage d’un climat de survie. Par conséquent, une réflexion concernant le sentiment de sécurité préoccupant les reclus, sentiment qui est un besoin fondamental chez tous les êtres humains, un retour sur les divers modèles théoriques en fonction des données que nous avons obtenues ainsi qu’une réflexion portant sur les moyens dont disposent les individus et le milieu afin de diminuer les possibilités que la violence soit utilisée, ont été amorcées en conclusion.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

L’objectif de cette thèse par articles est de présenter modestement quelques étapes du parcours qui mènera (on espère) à une solution générale du problème de l’intelligence artificielle. Cette thèse contient quatre articles qui présentent chacun une différente nouvelle méthode d’inférence perceptive en utilisant l’apprentissage machine et, plus particulièrement, les réseaux neuronaux profonds. Chacun de ces documents met en évidence l’utilité de sa méthode proposée dans le cadre d’une tâche de vision par ordinateur. Ces méthodes sont applicables dans un contexte plus général, et dans certains cas elles on tété appliquées ailleurs, mais ceci ne sera pas abordé dans le contexte de cette de thèse. Dans le premier article, nous présentons deux nouveaux algorithmes d’inférence variationelle pour le modèle génératif d’images appelé codage parcimonieux “spike- and-slab” (CPSS). Ces méthodes d’inférence plus rapides nous permettent d’utiliser des modèles CPSS de tailles beaucoup plus grandes qu’auparavant. Nous démontrons qu’elles sont meilleures pour extraire des détecteur de caractéristiques quand très peu d’exemples étiquetés sont disponibles pour l’entraînement. Partant d’un modèle CPSS, nous construisons ensuite une architecture profonde, la machine de Boltzmann profonde partiellement dirigée (MBP-PD). Ce modèle a été conçu de manière à simplifier d’entraînement des machines de Boltzmann profondes qui nécessitent normalement une phase de pré-entraînement glouton pour chaque couche. Ce problème est réglé dans une certaine mesure, mais le coût d’inférence dans le nouveau modèle est relativement trop élevé pour permettre de l’utiliser de manière pratique. Dans le deuxième article, nous revenons au problème d’entraînement joint de machines de Boltzmann profondes. Cette fois, au lieu de changer de famille de modèles, nous introduisons un nouveau critère d’entraînement qui donne naissance aux machines de Boltzmann profondes à multiples prédictions (MBP-MP). Les MBP-MP sont entraînables en une seule étape et ont un meilleur taux de succès en classification que les MBP classiques. Elles s’entraînent aussi avec des méthodes variationelles standard au lieu de nécessiter un classificateur discriminant pour obtenir un bon taux de succès en classification. Par contre, un des inconvénients de tels modèles est leur incapacité de générer deséchantillons, mais ceci n’est pas trop grave puisque la performance de classification des machines de Boltzmann profondes n’est plus une priorité étant donné les dernières avancées en apprentissage supervisé. Malgré cela, les MBP-MP demeurent intéressantes parce qu’elles sont capable d’accomplir certaines tâches que des modèles purement supervisés ne peuvent pas faire, telles que celle de classifier des données incomplètes ou encore celle de combler intelligemment l’information manquante dans ces données incomplètes. Le travail présenté dans cette thèse s’est déroulé au milieu d’une période de transformations importantes du domaine de l’apprentissage à réseaux neuronaux profonds qui a été déclenchée par la découverte de l’algorithme de “dropout” par Geoffrey Hinton. Dropout rend possible un entraînement purement supervisé d’architectures de propagation unidirectionnel sans être exposé au danger de sur- entraînement. Le troisième article présenté dans cette thèse introduit une nouvelle fonction d’activation spécialement con ̧cue pour aller avec l’algorithme de Dropout. Cette fonction d’activation, appelée maxout, permet l’utilisation de aggrégation multi-canal dans un contexte d’apprentissage purement supervisé. Nous démontrons comment plusieurs tâches de reconnaissance d’objets sont mieux accomplies par l’utilisation de maxout. Pour terminer, sont présentons un vrai cas d’utilisation dans l’industrie pour la transcription d’adresses de maisons à plusieurs chiffres. En combinant maxout avec une nouvelle sorte de couche de sortie pour des réseaux neuronaux de convolution, nous démontrons qu’il est possible d’atteindre un taux de succès comparable à celui des humains sur un ensemble de données coriace constitué de photos prises par les voitures de Google. Ce système a été déployé avec succès chez Google pour lire environ cent million d’adresses de maisons.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

Ce mémoire a pour but d’explorer la littérature sur le sujet de la justice scolaire. L’étude sera divisée sous trois axes. Il sera question d’abord de l’accessibilité à l’éducation. Il y a au moins quatre grands principes au libéralisme : (1) les individus sont libres et égaux ; (2) les individus ont tous droit à des chances égales de mener à terme leur projet de vie ; (3) les individus sont détenteurs d’un ensemble de droits garantis par la société ; (4) l’État adopte une posture de neutralité. Partant de ces valeurs, nous établissons des liens avec la nécessité d’une accessibilité à l’éducation. En second lieu, ce mémoire étudiera trois modèles d’école : l’école parentale, l’école étatique, et l’école orientée vers l’autonomie. Nous argumenterons, avec Harry Brighouse, à l’effet que l’éducation orientée vers l’autonomie constitue l’objectif qui respecte le plus les valeurs du libéralisme, dont l’impératif de neutralité, et les intérêts des jeunes. Dans la dernière partie de cette étude, nous étudierons trois conceptions de l’égalité : égalité des ressources (Jean-Fabien Spitz), égalité des opportunités (Richard Arneson) de bien-être et le suffisantisme (Debra Satz). Afin de juger de leurs qualités respectives, nous tenterons de les appliquer au système éducatif afin d’en faire ressortir les forces et les faiblesses.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

Sharing of information with those in need of it has always been an idealistic goal of networked environments. With the proliferation of computer networks, information is so widely distributed among systems, that it is imperative to have well-organized schemes for retrieval and also discovery. This thesis attempts to investigate the problems associated with such schemes and suggests a software architecture, which is aimed towards achieving a meaningful discovery. Usage of information elements as a modelling base for efficient information discovery in distributed systems is demonstrated with the aid of a novel conceptual entity called infotron.The investigations are focused on distributed systems and their associated problems. The study was directed towards identifying suitable software architecture and incorporating the same in an environment where information growth is phenomenal and a proper mechanism for carrying out information discovery becomes feasible. An empirical study undertaken with the aid of an election database of constituencies distributed geographically, provided the insights required. This is manifested in the Election Counting and Reporting Software (ECRS) System. ECRS system is a software system, which is essentially distributed in nature designed to prepare reports to district administrators about the election counting process and to generate other miscellaneous statutory reports.Most of the distributed systems of the nature of ECRS normally will possess a "fragile architecture" which would make them amenable to collapse, with the occurrence of minor faults. This is resolved with the help of the penta-tier architecture proposed, that contained five different technologies at different tiers of the architecture.The results of experiment conducted and its analysis show that such an architecture would help to maintain different components of the software intact in an impermeable manner from any internal or external faults. The architecture thus evolved needed a mechanism to support information processing and discovery. This necessitated the introduction of the noveI concept of infotrons. Further, when a computing machine has to perform any meaningful extraction of information, it is guided by what is termed an infotron dictionary.The other empirical study was to find out which of the two prominent markup languages namely HTML and XML, is best suited for the incorporation of infotrons. A comparative study of 200 documents in HTML and XML was undertaken. The result was in favor ofXML.The concept of infotron and that of infotron dictionary, which were developed, was applied to implement an Information Discovery System (IDS). IDS is essentially, a system, that starts with the infotron(s) supplied as clue(s), and results in brewing the information required to satisfy the need of the information discoverer by utilizing the documents available at its disposal (as information space). The various components of the system and their interaction follows the penta-tier architectural model and therefore can be considered fault-tolerant. IDS is generic in nature and therefore the characteristics and the specifications were drawn up accordingly. Many subsystems interacted with multiple infotron dictionaries that were maintained in the system.In order to demonstrate the working of the IDS and to discover the information without modification of a typical Library Information System (LIS), an Information Discovery in Library Information System (lDLIS) application was developed. IDLIS is essentially a wrapper for the LIS, which maintains all the databases of the library. The purpose was to demonstrate that the functionality of a legacy system could be enhanced with the augmentation of IDS leading to information discovery service. IDLIS demonstrates IDS in action. IDLIS proves that any legacy system could be augmented with IDS effectively to provide the additional functionality of information discovery service.Possible applications of IDS and scope for further research in the field are covered.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

Global Positioning System (GPS), with its high integrity, continuous availability and reliability, revolutionized the navigation system based on radio ranging. With four or more GPS satellites in view, a GPS receiver can find its location anywhere over the globe with accuracy of few meters. High accuracy - within centimeters, or even millimeters is achievable by correcting the GPS signal with external augmentation system. The use of satellite for critical application like navigation has become a reality through the development of these augmentation systems (like W AAS, SDCM, and EGNOS, etc.) with a primary objective of providing essential integrity information needed for navigation service in their respective regions. Apart from these, many countries have initiated developing space-based regional augmentation systems like GAGAN and IRNSS of India, MSAS and QZSS of Japan, COMPASS of China, etc. In future, these regional systems will operate simultaneously and emerge as a Global Navigation Satellite System or GNSS to support a broad range of activities in the global navigation sector.Among different types of error sources in the GPS precise positioning, the propagation delay due to the atmospheric refraction is a limiting factor on the achievable accuracy using this system. The WADGPS, aimed for accurate positioning over a large area though broadcasts different errors involved in GPS ranging including ionosphere and troposphere errors, due to the large temporal and spatial variations in different atmospheric parameters especially in lower atmosphere (troposphere), the use of these broadcasted tropospheric corrections are not sufficiently accurate. This necessitated the estimation of tropospheric error based on realistic values of tropospheric refractivity. Presently available methodologies for the estimation of tropospheric delay are mostly based on the atmospheric data and GPS measurements from the mid-latitude regions, where the atmospheric conditions are significantly different from that over the tropics. No such attempts were made over the tropics. In a practical approach when the measured atmospheric parameters are not available analytical models evolved using data from mid-latitudes for this purpose alone can be used. The major drawback of these existing models is that it neglects the seasonal variation of the atmospheric parameters at stations near the equator. At tropics the model underestimates the delay in quite a few occasions. In this context, the present study is afirst and major step towards the development of models for tropospheric delay over the Indian region which is a prime requisite for future space based navigation program (GAGAN and IRNSS). Apart from the models based on the measured surface parameters, a region specific model which does not require any measured atmospheric parameter as input, but depends on latitude and day of the year was developed for the tropical region with emphasis on Indian sector.Large variability of atmospheric water vapor content in short spatial and/or temporal scales makes its measurement rather involved and expensive. A local network of GPS receivers is an effective tool for water vapor remote sensing over the land. This recently developed technique proves to be an effective tool for measuring PW. The potential of using GPS to estimate water vapor in the atmosphere at all-weather condition and with high temporal resolution is attempted. This will be useful for retrieving columnar water vapor from ground based GPS data. A good network of GPS could be a major source of water vapor information for Numerical Weather Prediction models and could act as surrogate to the data gap in microwave remote sensing for water vapor over land.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

Es werden die Grundlagen und wichtigsten Konzepte für zielorientierte Fehlerschätzer bei linearen und nichtlinearen Problemen vorgestellt. Mit ihrer Hilfe lassen sich Aussagen über die Güte einzelner lokaler Werte treffen und es ist möglich, das Netz innerhalb von adaptiven Verfahren derart zu optimieren, dass die betrachtete lokale Größe möglichst genau berechnet werden kann.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

A distributed method for mobile robot navigation, spatial learning, and path planning is presented. It is implemented on a sonar-based physical robot, Toto, consisting of three competence layers: 1) Low-level navigation: a collection of reflex-like rules resulting in emergent boundary-tracing. 2) Landmark detection: dynamically extracts landmarks from the robot's motion. 3) Map learning: constructs a distributed map of landmarks. The parallel implementation allows for localization in constant time. Spreading of activation computes both topological and physical shortest paths in linear time. The main issues addressed are: distributed, procedural, and qualitative representation and computation, emergent behaviors, dynamic landmarks, minimized communication.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

In early stages of architectural design, as in other design domains, the language used is often very abstract. In architectural design, for example, architects and their clients use experiential terms such as "private" or "open" to describe spaces. If we are to build programs that can help designers during this early-stage design, we must give those programs the capability to deal with concepts on the level of such abstractions. The work reported in this thesis sought to do that, focusing on two key questions: How are abstract terms such as "private" and "open" translated into physical form? How might one build a tool to assist designers with this process? The Architect's Collaborator (TAC) was built to explore these issues. It is a design assistant that supports iterative design refinement, and that represents and reasons about how experiential qualities are manifested in physical form. Given a starting design and a set of design goals, TAC explores the space of possible designs in search of solutions that satisfy the goals. It employs a strategy we've called dependency-directed redesign: it evaluates a design with respect to a set of goals, then uses an explanation of the evaluation to guide proposal and refinement of repair suggestions; it then carries out the repair suggestions to create new designs. A series of experiments was run to study TAC's behavior. Issues of control structure, goal set size, goal order, and modification operator capabilities were explored. In addition, TAC's use as a design assistant was studied in an experiment using a house in the process of being redesigned. TAC's use as an analysis tool was studied in an experiment using Frank Lloyd Wright's Prairie houses.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

Resumen tomado de la publicaci??n. Resumen tambi??n en ingl??s