32 resultados para Invariant Object Recognition


Relevância:

20.00% 20.00%

Publicador:

Resumo:

Mémoire numérisé par la Division de la gestion de documents et des archives de l'Université de Montréal.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

L’eau a longtemps été considérée comme une ressource commune non susceptible d’appropriation et accessible à tous. De nos jours, toutefois, face à l’inégale répartition de l’eau sur la planète, à l’augmentation constante de la population et à la multiplication des usages qui entraînent la surexploitation et la pollution des ressources hydriques, l’eau prend une valeur nouvelle. L’eau devient de plus en plus un enjeu stratégique, politique et commercial. En conséquence, la redéfinition du statut juridique de l’eau devient un objet de débat important. Ce débat est avant tout un débat rhétorique et une « bataille » idéologique entre des groupes qui soutiennent différentes approches et qui cherchent à obtenir le monopole de la nouvelle réalité et créer ainsi le nouveau droit. Deux grandes approches s’affrontent pour redéfinir la ressource. La première, celle qui envisage l’eau comme un bien économique, soutient que pour éviter les problèmes de gaspillage et de pollution, l’eau doit être soumise aux lois de l’offre et de la demande. La deuxième, celle qui considère l’eau comme une chose commune, non appropriable et hors commerce, soutient que la valeur d’une ressource aussi vitale que l’eau ne peut être établie par les lois du marché puisque cette alternative ne permet pas d’assurer l’accès à l’eau aux plus démunis de la société. Cette approche prône également la reconnaissance d’un droit humain à l’eau. Notre thèse tente de déterminer comment s’effectue le choix du statut juridique de l’eau, et ce, tant au Québec qu’au Mexique. Notre question de recherche est traitée selon une perspective constructiviste en vertu de laquelle le statut juridique de l’eau serait une réalité « construite » et le nouveau droit serait le résultat des luttes, des oppositions et des compromis entre les acteurs sociaux impliqués. Notre terrain d’étude est le Québec et le Mexique. En effet, ce sont des territoires intégrés économiquement par le biais de l’ALENA où l’on observe des variations importantes en termes de ressources, de prélèvements et de consommation. Au Québec, nous analysons le débat qui a eu lieu lors de la Consultation sur la gestion de l’eau au Québec (1999), notamment les discours concernant le statut de l’eau, la gestion publique/privée des services d’eau et l’exportation en vrac de la ressource. Au Mexique, nous analysons les représentations des acteurs sociaux à l’occasion de l’adoption de la Loi des eaux nationales de 1992, notamment les questions qui comportent un lien étroit avec la symbolique de l’eau. Or, nous avons remarqué que le résultat de ces constructions sociales au sein de ces territoires est complètement différent. Au Québec, on a confirmé le statut de l’eau en tant que chose commune, tandis qu’au Mexique, c’est plutôt la symbolique de l’eau en tant que bien économique qui a été adoptée dans la nouvelle législation portant sur l’eau.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

Après le succès mondial de la série télévisée prolongé par les films, la franchise Sex and the City est devenue un phénomène de masse. Sujet de plusieurs études académiques qui mettent en évidence l’importance du post-féminisme pour le succès de la franchise, Sex and the City se distingue par la relation particulière qui s’instaure entre les spectateurs et les personnages, et qui est l’objet de la présente étude : relation qui passe par la représentation des thèmes et du quotidien féminins et surtout par la construction des personnages, principalement du personnage principal Carrie Bradshaw. De plus, elle est renforcée par des stratégies médiatiques utilisées pour rapprocher le public féminin à partir des processus de reconnaissance et d’identification qui dirigent la réception de masse.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

Cette thèse a comme objectif général d’enrichir la compréhension du phénomène de mise en œuvre des services cliniques intégrés en contexte organisationnel. Elle s’inscrit dans la perspective théorique du sensemaking organisationnel (Weick, 1995). Dans un premier temps, nous avons étudié comment des acteurs ont construit le sens du projet d’intégration qu’ils devaient mettre en œuvre, et les répercussions de cette construction de sens sur des enjeux cliniques et organisationnels. Le contexte étudié est une nouvelle organisation de santé créée afin d’offrir des services surspécialisés à des personnes aux prises avec un trouble concomitant de santé mentale et de dépendance. Une stratégie de recherche de type qualitatif a été utilisée. L’analyse a reposé sur des données longitudinales (8 ans) provenant de trois sources : des entrevues semi-dirigées, des observations et de l’analyse de documents. Deux articles en découlent. Alors que l’article 1 met l’accent sur la transformation des pratiques professionnelles, l’article 2 aborde le phénomène sous l’angle de l’identité organisationnelle. Dans un deuxième temps, nous avons réalisé une analyse critique des écrits. Celle-ci a porté sur les tendances actuelles dans la façon d’étudier la mise en œuvre des services intégrés pour les troubles concomitants. Les résultats obtenus sont présentés dans l’article 3. Quatre grands constats se dégagent de l’ensemble de ce travail. Le premier est que la mise en œuvre de services cliniques intégrés est un phénomène dynamique, mais sous contrainte. Autrement dit, il s’agit d’un phénomène évolutif qui se définit et se redéfinit au gré des événements, mais avec une tendance lourde à maintenir la direction dans laquelle il s’est déployé initialement. L’énaction et l’engagement des professionnels sont apparus des mécanismes explicatifs centraux à cet égard. Le second constat est que la mise en œuvre s’actualise à travers des niveaux d’intégration interdépendants, ce qui signifie que le contexte et l’objet qui est mis en œuvre coévoluent et se transforment mutuellement. Nos résultats ont montré que la notion de "pratiques de couplage" était utile pour capter cette dynamique. Notre troisième constat est que la mise en œuvre demeure profondément ancrée dans le sens que les membres organisationnels construisent collectivement du projet d’intégration à travers leurs actions et interactions quotidiennes. Cette construction de sens permet de comprendre comment le contenu et la forme du projet d’intégration se façonnent au gré des circonstances, tant dans ses aspects cliniques qu’organisationnels. Enfin, le quatrième constat est que ces dynamiques demeurent relativement peu explorées à ce jour dans les écrits sur l’implantation des services intégrés pour les troubles concomitants. Nous faisons l’hypothèse que ce manque de reconnaissance pourrait expliquer une partie des difficultés de mise en œuvre actuelles. Globalement, ces constats permettent d’enrichir considérablement la compréhension du phénomène en révélant les dynamiques qui le constituent et les enjeux qu’il soulève. Aussi, leur prise en compte par les décideurs et les chercheurs a-t-elle le potentiel de faire progresser les pratiques vers une intégration accrue.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

Les troubles du spectre autistique (TSA) sont actuellement caractérisés par une triade d'altérations, incluant un dysfonctionnement social, des déficits de communication et des comportements répétitifs. L'intégration simultanée de multiples sens est cruciale dans la vie quotidienne puisqu'elle permet la création d'un percept unifié. De façon similaire, l'allocation d'attention à de multiples stimuli simultanés est critique pour le traitement de l'information environnementale dynamique. Dans l'interaction quotidienne avec l'environnement, le traitement sensoriel et les fonctions attentionnelles sont des composantes de base dans le développement typique (DT). Bien qu'ils ne fassent pas partie des critères diagnostiques actuels, les difficultés dans les fonctions attentionnelles et le traitement sensoriel sont très courants parmi les personnes autistes. Pour cela, la présente thèse évalue ces fonctions dans deux études séparées. La première étude est fondée sur la prémisse que des altérations dans le traitement sensoriel de base pourraient être à l'origine des comportements sensoriels atypiques chez les TSA, tel que proposé par des théories actuelles des TSA. Nous avons conçu une tâche de discrimination de taille intermodale, afin d'investiguer l'intégrité et la trajectoire développementale de l'information visuo-tactile chez les enfants avec un TSA (N = 21, âgés de 6 à18 ans), en comparaison à des enfants à DT, appariés sur l’âge et le QI de performance. Dans une tâche à choix forcé à deux alternatives simultanées, les participants devaient émettre un jugement sur la taille de deux stimuli, basé sur des inputs unisensoriels (visuels ou tactiles) ou multisensoriels (visuo-tactiles). Des seuils différentiels ont évalué la plus petite différence à laquelle les participants ont été capables de faire la discrimination de taille. Les enfants avec un TSA ont montré une performance diminuée et pas d'effet de maturation aussi bien dans les conditions unisensorielles que multisensorielles, comparativement aux participants à DT. Notre première étude étend donc des résultats précédents d'altérations dans le traitement multisensoriel chez les TSA au domaine visuo-tactile. Dans notre deuxième étude, nous avions évalué les capacités de poursuite multiple d’objets dans l’espace (3D-Multiple Object Tracking (3D-MOT)) chez des adultes autistes (N = 15, âgés de 18 à 33 ans), comparés à des participants contrôles appariés sur l'âge et le QI, qui devaient suivre une ou trois cibles en mouvement parmi des distracteurs dans un environnement de réalité virtuelle. Les performances ont été mesurées par des seuils de vitesse, qui évaluent la plus grande vitesse à laquelle des observateurs sont capables de suivre des objets en mouvement. Les individus autistes ont montré des seuils de vitesse réduits dans l'ensemble, peu importe le nombre d'objets à suivre. Ces résultats étendent des résultats antérieurs d'altérations au niveau des mécanismes d'attention en autisme quant à l'allocation simultanée de l'attention envers des endroits multiples. Pris ensemble, les résultats de nos deux études révèlent donc des altérations chez les TSA quant au traitement simultané d'événements multiples, que ce soit dans une modalité ou à travers des modalités, ce qui peut avoir des implications importantes au niveau de la présentation clinique de cette condition.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

1er Prix du concours d'initiation à la recherche organisé par le Regroupement Droit et Changements. La Loi sur les Indiens institutionnalise toujours de nombreuses facettes de ce qu’est être « Indien » pour beaucoup d’individus au Canada et un changement de perspective doit être opéré. Cet essai puise dans la pensée du philosophe Theodor Adorno pour réfléchir aux tentatives de reconnaissance juridique par le Canada des individus et sociétés autochtones en vertu de l’article 35 de la Constitution. L’auteur présente la théorie de la dialectique négative d’Adorno de 1966 sur le rapport à l’altérité, à partir de l’analyse de la professeure Drucilla Cornell, afin d’identifier ce que sa pensée prescrit pour établir des rapports non-oppressants entre Autochtones et non-Autochtones et leurs gouvernements aujourd’hui. La dialectique négative est particulièrement appropriée à la tentative de reconnaissance juridique de l’existence des sociétés autochtones par le Canada, du fait de leur statut marginalisé et de leurs revendications à la spécificité. Après avoir établi un tel cadre, l’auteur souligne que des précédentes tentatives de reconnaissances se sont soldées par des échecs en raison des désaccords au niveau des valeurs impliquées et des concepts utilisés auxquels elles ont donné lieu. Le processus de signature des traités numérotés de 1871-1921 est employé comme illustration en raison de son résultat souvent décrit aujourd’hui comme coercitif et injuste en dépit du discours de négociation sur un pied d’égalité l’ayant accompagné. Les critiques contemporaines de la politique en vigueur de mise en œuvre de l’autonomie gouvernementale autochtone par des accords négociés sont également présentées, afin d’illustrer que des désaccords quant à la manière dont l’État canadien entend reconnaître les peuples autochtones persistent à ce jour. L’auteur ajoute que, du point de vue de la dialectique négative, de tels désaccords doivent nécessairement être résolus pour que des rapports moins oppressifs puissent être établis. L’auteur conclut que la dialectique négative impose à la fois de se considérer soi-même (« je est un autre ») et de considérer l’autre comme au-delà des limites de sa propre pensée. La Cour suprême a déjà reconnu que la seule perspective de la common law n’est pas suffisante pour parvenir à une réconciliation des souverainetés des Autochtones et de la Couronne en vertu de la Constitution. Le concept de common law de fiduciaire présente un véhicule juridique intéressant pour une reconfiguration plus profonde par le gouvernement canadien de son rapport avec les peuples autochtones, priorisant processus plutôt que résultats et relations plutôt que certitude. Il doit toutefois être gardé à l’esprit que la reconnaissance de ces peuples par l’État canadien par le prisme de la pensée d’Adorno présente non seulement le défi d’inclure de nouvelles perspectives, mais également de remettre en cause les prémisses fondamentales à partir desquelles on considère la communauté canadienne en général.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

L'étude porte sur une norme juridique déterminée, identifiée par sa valeur ­ constitutionnelle ­ et par son objet ­ qui est de protéger l'animal pour lui-même. La recherche a été conduite sans délimitation a priori du champ des pays étudiés. Il n'y a pas eu à proprement parler de choix des pays puisque tous ont été intégrés à la présente étude, sans critère d'exclusion ou de discrimination (tel que le niveau de développement ou le type de système juridique dont ils relèvent). Les Constitutions actuellement en vigueur de tous les Etats unitaires ou fédéraux ont été passées au crible de l'analyse. En revanche, les Constitutions des entités fédérées n'ont pas fait l'objet d'une analyse systématique mais seulement d'une étude sélective. L'objectif de la recherche était de réaliser une étude générale en apportant des réponses aux interrogations suivantes : quelles sont les normes constitutionnelles de protection de l'animal ? Pourquoi et comment ont-elles été adoptées ? Quelle est leur portée dans les ordres juridiques concernés ? De cette recherche ressortent principalement trois enseignements. Premièrement, le phénomène de la consécration de normes constitutionnelles de protection de l'animal est récent et en plein développement. Deuxièmement, ces normes présentent des formulations différentes et procèdent de deux considérations distinctes : le respect de l'animal en Inde, la prise en compte de sa sensibilité dans les autres pays (essentiellement les pays occidentaux). Troisièmement, ces normes revêtent le plus souvent la nature d'objectif constitutionnel, ce qui leur permet de justifier au nom du respect, du bien-être ou de la protection de l'animal les limitations apportées aux droits constitutionnels, notamment la liberté du commerce, la liberté artistique et la liberté de la recherche.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

Le présent travail de recherche analyse l’acte d’achat et fait une brèche dans la relation mystérieuse que nous développons avec les biens de consommation. En microéconomie et en sociologie de la consommation, on considère que le consommateur fait des choix rationnels, et ce à travers un processus d’achat (Langlois, 2002). Ce processus est divisé en cinq étapes : la reconnaissance du problème, la recherche d’informations, l’évaluation des alternatives en concurrence, le choix et l’analyse post-achat (Brée, 2004). Bien que l’étape du choix soit certainement l’étape charnière du processus, car elle détermine le choix final menant à l’achat, elle est souvent comprise comme l’aboutissement de calculs préalables et non comme un moment régi par ses propres dynamiques. Le paradigme dominant en matière de choix, la théorie du choix rationnel, avance que nous formulons nos choix en recourant à des calculs d’utilité. Nous évaluons rationnellement les options afin d’optimiser notre situation en sélectionnant le choix qui nous rapporte le plus en nous coûtant le moins (Abell, 1991). Par contre, certains critiques de la théorie du choix rationnel allèguent que la multiplicité de choix encouragée par notre société engendre un stress lors de l’achat qui embrouille le jugement menant au choix. Cela invite à considérer la singularité du moment menant au choix. Que se passe-t-il chez le consommateur lorsqu’il est mis en présence d’un objet? En vérité, les disciplines qui s’intéressent au comportement du consommateur éludent la présence de l’objet comme forme d’influence sur le jugement. Dans le cadre de cette recherche, nous entendons par la mise en présence le moment où un individu est en présence d’un objet spécifique ou d’une représentation d’un objet. Lorsque mis en présence de l’objet, le consommateur fera un jugement qui sera potentiellement relatif aux sensations de beauté (Hutcheson, 1991) et aux émotions provoquées par un objet spécifique. Ainsi, les sens « externes » (la vue, l’ouïe, l’odorat, le goût, le toucher) stimulent un sens « esthétique » : le sens interne de la beauté (Hutcheson, 1991). De plus, il peut survenir, en consommation, lors de la mise en présence que l’émotion prenne la forme d’un jugement (Nussbaum, 2001). On définit les émotions comme un état affectif situationnel dirigé vers une chose (Desmet, 2002). C’est ainsi que la recherche s’est articulé autour de l’hypothèse suivante : de quelle manière la mise en présence influence le jugement du consommateur pendant le processus d’achat? Nous avons mené une enquête inspirée d’une approche qualitative auprès de consommateurs dont les résultats sont ici exposés et discutés. L’enquête tente dans un premier temps de cerner l’impact de la mise en présence dans le processus d’achat. Puis, le récit de magasinage de quatre participants est analysé à l’aide d’éléments tels les critères de choix, les facteurs, les influences et les contraintes. L’enquête montre notamment que la mise en présence intervient et modifie le jugement du consommateur. L’analyse des entretiens met en avant une tendance chez nos participants à la scénarisation tout au long du processus d’achat et particulièrement lors des moments de mise en présence. Nous avons observé que les moments de mise en présence alimentent le scénario imaginé par le consommateur et lui permet de créer des scénarios de vie future en interaction avec certains biens de consommation.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

Les humains communiquent via différents types de canaux: les mots, la voix, les gestes du corps, des émotions, etc. Pour cette raison, un ordinateur doit percevoir ces divers canaux de communication pour pouvoir interagir intelligemment avec les humains, par exemple en faisant usage de microphones et de webcams. Dans cette thèse, nous nous intéressons à déterminer les émotions humaines à partir d’images ou de vidéo de visages afin d’ensuite utiliser ces informations dans différents domaines d’applications. Ce mémoire débute par une brève introduction à l'apprentissage machine en s’attardant aux modèles et algorithmes que nous avons utilisés tels que les perceptrons multicouches, réseaux de neurones à convolution et autoencodeurs. Elle présente ensuite les résultats de l'application de ces modèles sur plusieurs ensembles de données d'expressions et émotions faciales. Nous nous concentrons sur l'étude des différents types d’autoencodeurs (autoencodeur débruitant, autoencodeur contractant, etc) afin de révéler certaines de leurs limitations, comme la possibilité d'obtenir de la coadaptation entre les filtres ou encore d’obtenir une courbe spectrale trop lisse, et étudions de nouvelles idées pour répondre à ces problèmes. Nous proposons également une nouvelle approche pour surmonter une limite des autoencodeurs traditionnellement entrainés de façon purement non-supervisée, c'est-à-dire sans utiliser aucune connaissance de la tâche que nous voulons finalement résoudre (comme la prévision des étiquettes de classe) en développant un nouveau critère d'apprentissage semi-supervisé qui exploite un faible nombre de données étiquetées en combinaison avec une grande quantité de données non-étiquetées afin d'apprendre une représentation adaptée à la tâche de classification, et d'obtenir une meilleure performance de classification. Finalement, nous décrivons le fonctionnement général de notre système de détection d'émotions et proposons de nouvelles idées pouvant mener à de futurs travaux.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

Symbole de modernité pendant la majeure partie du XXe siècle, la cigarette est depuis une trentaine d’années la cible d’interventions croissantes visant à réduire sa consommation. La lutte contre le tabac bénéficie d’un dispositif sans précédent qui fait office de cas d’école en santé publique, par son ampleur et par l’adhésion qu’il suscite. L’intérêt d’étudier cet objet réside ainsi dans la propriété essentielle de la lutte anti-tabac de relier un dispositif institutionnel et des motivations subjectives. Le dispositif anti-tabac (DAT) a en effet vocation à faire converger les prescriptions normatives d’un ensemble d’institutions et les désirs individuels, et y parvient manifestement dans une certaine mesure. Il permet dès lors d’aborder à la fois un travail sur les sociétés et un travail sur soi. Cette thèse entreprend une analyse sociologique du dispositif anti-tabac au Québec et vise à interroger les modalités et les fins de ce contrôle public de la consommation de tabac, en mettant au jour ses dimensions culturelles, symboliques et politiques. La santé publique apparaissant de nos jours comme lieu central de l’espace politique et social dans les sociétés contemporaines (Fassin et Dozon, 2001 :7), l’utopie d’un « monde sans fumée » se révèle selon nous tout à fait typique des enjeux qui caractérisent la modernité avancée ou « société du risque » (Beck, 2001, [1986]). Après avoir présenté le rapport historiquement ambivalent des pays occidentaux au tabac et ses enjeux, puis problématisé la question de la consommation de substances psychotropes dans le cadre d’une production et d’une construction sociale et culturelle (Fassin, 2005a), nous inscrivons le DAT dans le cadre d’une biopolitique de la population (Foucault, 1976; 1997; 2004b). À l’aune des enseignements de Michel Foucault, cette thèse consiste ainsi en l’analyse de discours croisée du dispositif institutionnel anti-tabac et de témoignages d’individus désirant arrêter de fumer, au regard du contexte social et politique de la société moderne avancée. Le DAT illustre les transformations à l’œuvre dans le champ de la santé publique, elles-mêmes caractéristiques d’une reconfiguration des modes de gouvernement des sociétés modernes avancées. La nouvelle biopolitique s’adresse en effet à des sujets libres et entreprend de produire des citoyens responsables de leur devenir biologique, des sujets de l’optimisation de leurs conditions biologiques. Elle s’appuie sur une culpabilité de type « néo-chrétien » (Quéval, 2008) qui caractérise notamment un des leviers fondamentaux du DAT. Ce dernier se caractérise par une lutte contre les fumeurs plus que contre le tabac. Il construit la figure du non-fumeur comme celle d’un individu autonome, proactif et performant et fait simultanément de l’arrêt du tabac une obligation morale. Par ce biais, il engage son public à se subjectiver comme citoyen biologique, entrepreneur de sa santé. L’analyse du DAT au Québec révèle ainsi une (re)moralisation intensive des questions de santé, par le biais d’une biomédicalisation des risques (Clarke et al., 2003; 2010), particulièrement représentative d’un nouveau mode d’exercice de l’autorité et de régulation des conduites dans les sociétés contemporaines, assimilée à une gouvernementalité néolibérale. Enfin, l’analyse de témoignages d’individus engagés dans une démarche d’arrêt du tabac révèle la centralité de la santé dans le processus contemporain d’individuation. La santé publique apparait alors comme une institution socialisatrice produisant un certain « type d’homme » centré sur sa santé et adapté aux exigences de performance et d’autonomie prévalant, ces éléments constituant désormais de manière croissante des clés d’intégration et de reconnaissance sociale.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

Le virus de l’hépatite C (VHC) est un virus à ARN simple brin positif (ssARN) qui se replique dans le foie. Deux cents millions de personnes sont infectées par le virus dans le monde et environ 80% d’entre elles progresseront vers un stade chronique de l’infection. Les thérapies anti-virales actuelles comme l’interféron (IFN) ou la ribavirin sont de plus en plus utilisées mais ne sont efficaces que dans la moitié des individus traités et sont souvent accompagnées d’une toxicité ou d’effets secondaires indésirables. Le système immunitaire inné est essentiel au contrôle des infections virales. Les réponses immunitaires innées sont activées suite à la reconnaissance par les Pathogen Recognition Receptors (PRRs), de motifs macromoléculaires dérivés du virus appelés Pathogen-Associated Molecular Patterns (PAMPs). Bien que l'activation du système immunitaire par l'ARN ou les protéines du VHC ait été largement étudiée, très peu de choses sont actuellement connues concernant la détection du virus par le système immunitaire inné. Et même si l’on peut très rapidement déceler des réponses immunes in vivo après infection par le VHC, l’augmentation progressive et continue de la charge virale met en évidence une incapacité du système immunitaire à contrôler l’infection virale. Une meilleure compréhension des mécanismes d’activation du système immunitaire par le VHC semble, par conséquent, essentielle au développement de stratégies antivirales plus efficaces. Dans le présent travail nous montrons, dans un modèle de cellule primaire, que le génome ARN du VHC contient des séquences riches en GU capables de stimuler spécifiquement les récepteurs de type Toll (TLR) 7 et 8. Cette stimulation a pour conséquence la maturation des cellules dendritiques plasmacytoïdes (pDCs), le production d’interféron de type I (IFN) ainsi que l’induction de chémokines et cytokines inflammatoires par les différentes types de cellules présentatrices d’antigènes (APCs). Les cytokines produites après stimulation de monocytes ou de pDCs par ces séquences ssARN virales, inhibent la production du virus de façon dépendante de l’IFN. En revanche, les cytokines produites après stimulation de cellules dendritiques myéloïdes (mDCs) ou de macrophages par ces mêmes séquences n’ont pas d’effet inhibiteur sur la production virale car les séquences ssARN virales n’induisent pas la production d’IFN par ces cellules. Les cytokines produites après stimulation des TLR 7/8 ont également pour effet de diminuer, de façon indépendante de l’IFN, l’expression du récepteur au VHC (CD81) sur la lignée cellulaire Huh7.5, ce qui pourrait avoir pour conséquence de restreindre l’infection par le VHC. Quoiqu’il en soit, même si les récepteurs au VHC comme le CD81 sont largement exprimés à la surface de différentes sous populations lymphocytaires, les DCs et les monocytes ne répondent pas aux VHC, Nos résultats indiquent que seuls les macrophages sont capables de reconnaître le VHC et de produire des cytokines inflammatoires en réponse à ce dernier. La reconnaissance du VHC par les macrophages est liée à l’expression membranaire de DC-SIGN et l’engagement des TLR 7/8 qui en résulte. Comme d’autres agonistes du TLR 7/8, le VHC stimule la production de cytokines inflammatoires (TNF-α, IL-8, IL-6 et IL-1b) mais n’induit pas la production d’interféron-beta par les macrophages. De manière attendue, la production de cytokines par des macrophages stimulés par les ligands du TLR 7/8 ou les séquences ssARN virales n’inhibent pas la réplication virale. Nos résultats mettent en évidence la capacité des séquences ssARN dérivées du VHC à stimuler les TLR 7/8 dans différentes populations de DC et à initier une réponse immunitaire innée qui aboutit à la suppression de la réplication virale de façon dépendante de l’IFN. Quoiqu’il en soit, le VHC est capable d’échapper à sa reconnaissance par les monocytes et les DCs qui ont le potentiel pour produire de l’IFN et inhiber la réplication virale après engagement des TLR 7/8. Les macrophages possèdent quant à eux la capacité de reconnaître le VHC grâce en partie à l’expression de DC-SIGN à leur surface, mais n’inhibent pas la réplication du virus car ils ne produisent pas d’IFN. L’échappement du VHC aux défenses antivirales pourrait ainsi expliquer l’échec du système immunitaire inné à contrôler l’infection par le VHC. De plus, la production de cytokines inflammatoires observée après stimulation in vitro des macrophages par le VHC suggère leur potentielle contribution dans l’inflammation que l’on retrouve chez les individus infectés par le VHC.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

A measure of association is row-size invariant if it is unaffected by the multiplication of all entries in a row of a cross-classification table by a same positive number. It is class-size invariant if it is unaffected by the multiplication of all entries in a class (i.e., a row or a column). We prove that every class-size invariant measure of association as-signs to each m x n cross-classification table a number which depends only on the cross-product ratios of its 2 x 2 subtables. We propose a monotonicity axiom requiring that the degree of association should increase after shifting mass from cells of a table where this mass is below its expected value to cells where it is above .provided that total mass in each class remains constant. We prove that no continuous row-size invariant measure of association is monotonic if m ≥ 4. Keywords: association, contingency tables, margin-free measures, size invariance, monotonicity, transfer principle.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

We study the problem of assigning indivisible and heterogenous objects (e.g., houses, jobs, offices, school or university admissions etc.) to agents. Each agent receives at most one object and monetary compensations are not possible. We consider mechanisms satisfying a set of basic properties (unavailable-type-invariance, individual-rationality, weak non-wastefulness, or truncation-invariance). In the house allocation problem, where at most one copy of each object is available, deferred-acceptance (DA)-mechanisms allocate objects based on exogenously fixed objects' priorities over agents and the agent-proposing deferred-acceptance-algorithm. For house allocation we show that DA-mechanisms are characterized by our basic properties and (i) strategy-proofness and population-monotonicity or (ii) strategy-proofness and resource-monotonicity. Once we allow for multiple identical copies of objects, on the one hand the first characterization breaks down and there are unstable mechanisms satisfying our basic properties and (i) strategy-proofness and population-monotonicity. On the other hand, our basic properties and (ii) strategy-proofness and resource-monotonicity characterize (the most general) class of DA-mechanisms based on objects' fixed choice functions that are acceptant, monotonic, substitutable, and consistent. These choice functions are used by objects to reject agents in the agent-proposing deferred-acceptance-algorithm. Therefore, in the general model resource-monotonicity is the «stronger» comparative statics requirement because it characterizes (together with our basic requirements and strategy-proofness) choice-based DA-mechanisms whereas population-monotonicity (together with our basic properties and strategy-proofness) does not.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

Dans cette dissertation, nous présentons plusieurs techniques d’apprentissage d’espaces sémantiques pour plusieurs domaines, par exemple des mots et des images, mais aussi à l’intersection de différents domaines. Un espace de représentation est appelé sémantique si des entités jugées similaires par un être humain, ont leur similarité préservée dans cet espace. La première publication présente un enchaînement de méthodes d’apprentissage incluant plusieurs techniques d’apprentissage non supervisé qui nous a permis de remporter la compétition “Unsupervised and Transfer Learning Challenge” en 2011. Le deuxième article présente une manière d’extraire de l’information à partir d’un contexte structuré (177 détecteurs d’objets à différentes positions et échelles). On montrera que l’utilisation de la structure des données combinée à un apprentissage non supervisé permet de réduire la dimensionnalité de 97% tout en améliorant les performances de reconnaissance de scènes de +5% à +11% selon l’ensemble de données. Dans le troisième travail, on s’intéresse à la structure apprise par les réseaux de neurones profonds utilisés dans les deux précédentes publications. Plusieurs hypothèses sont présentées et testées expérimentalement montrant que l’espace appris a de meilleures propriétés de mixage (facilitant l’exploration de différentes classes durant le processus d’échantillonnage). Pour la quatrième publication, on s’intéresse à résoudre un problème d’analyse syntaxique et sémantique avec des réseaux de neurones récurrents appris sur des fenêtres de contexte de mots. Dans notre cinquième travail, nous proposons une façon d’effectuer de la recherche d’image ”augmentée” en apprenant un espace sémantique joint où une recherche d’image contenant un objet retournerait aussi des images des parties de l’objet, par exemple une recherche retournant des images de ”voiture” retournerait aussi des images de ”pare-brises”, ”coffres”, ”roues” en plus des images initiales.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

Dans l'apprentissage machine, la classification est le processus d’assigner une nouvelle observation à une certaine catégorie. Les classifieurs qui mettent en œuvre des algorithmes de classification ont été largement étudié au cours des dernières décennies. Les classifieurs traditionnels sont basés sur des algorithmes tels que le SVM et les réseaux de neurones, et sont généralement exécutés par des logiciels sur CPUs qui fait que le système souffre d’un manque de performance et d’une forte consommation d'énergie. Bien que les GPUs puissent être utilisés pour accélérer le calcul de certains classifieurs, leur grande consommation de puissance empêche la technologie d'être mise en œuvre sur des appareils portables tels que les systèmes embarqués. Pour rendre le système de classification plus léger, les classifieurs devraient être capable de fonctionner sur un système matériel plus compact au lieu d'un groupe de CPUs ou GPUs, et les classifieurs eux-mêmes devraient être optimisés pour ce matériel. Dans ce mémoire, nous explorons la mise en œuvre d'un classifieur novateur sur une plate-forme matérielle à base de FPGA. Le classifieur, conçu par Alain Tapp (Université de Montréal), est basé sur une grande quantité de tables de recherche qui forment des circuits arborescents qui effectuent les tâches de classification. Le FPGA semble être un élément fait sur mesure pour mettre en œuvre ce classifieur avec ses riches ressources de tables de recherche et l'architecture à parallélisme élevé. Notre travail montre que les FPGAs peuvent implémenter plusieurs classifieurs et faire les classification sur des images haute définition à une vitesse très élevée.