982 resultados para Acteur-réseau
Resumo:
Élaborée à partir d’une étude de cas extensive focalisant sur les perspectives multiples et concurrentes ayant émergé lors des négociations sur la gouvernance de l’Internet, thématique ayant dominé l’agenda politique du Sommet mondial sur la société de l’information (SMSI), cette thèse examine les manières avec lesquelles les débats mondiaux sur la gouvernance de l’Internet influencent la notion d’intérêt public en communication. Établie sur la base d’une observation participante extensive, d’entrevues semi-structurées et de l’analyse d’une documentation formelle et informelle associée au SMSI, cette thèse fait état de l’émergence des enjeux associés à la gouvernance de l’Internet au SMSI et présente une analyse approfondie des négociations ayant porté sur cet enjeu. Le cadre théorique développé par Lawrence Lessig au travers duquel « le code est la loi » est appliqué afin d’expliquer comment les différents acteurs ont débattu et ultimement atteint un consensus sur les frontières venant séparer les enjeux normatifs de politique publique et les questions techniques de régulation et de gestion du réseau. Cette thèse discute également de l’évolution des débats autour de la gouvernance mondiale de l’Internet ayant pris place à la suite de la conclusion du SMSI. Sur la base de cette étude de cas, un ensemble de conclusions sont formulées sur les acteurs et les caractéristiques institutionnelles ayant influencé les négociations sur la gouvernance de l’internet. Il est également suggéré que le SMSI a redéfini une discussion étroite sur la gestion d’un ensemble de fonctions techniques de l’Internet en un domaine de politique publique plus large de gouvernance mondiale de l’Internet. Il est également défendu que la notion d’intérêt public dans la gouvernance mondiale de l’Internet est conceptualisée autour des processus de participation et d’intégration des différentes parties prenantes au processus politique. Les implications directes et indirectes qui découlent de ce constat pour comprendre plus largement la notion d’intérêt public dans le domaine de la communication sont également présentées et discutées. En conclusion, cette thèse s’interroge sur les implications programmatiques des éléments ayant été précédemment soulevées pour la recherche médiatique et communicationnelle.
Resumo:
La présence d’un récepteur de type RXR a récemment été rapporté chez la pensée de mer, Renilla koellikeri, de même que chez d’autres anthozoaires, et le NO semble jouer des différents rôles physiologiques, chez plusieurs cnidaires. L’acide rétinoïque (AR) et le monoxyde d’azote (NO) sont connus pour leur implication dans l’induction de la croissance des neurites chez les vertébrés ainsi que chez les invertébrés. Mais jusqu’à présent, aucun rôle de ces agents n’a encore été identifié chez ce phylum ancien des invertébrés. Dans le but de montrer que ces agents morphogénétiques ont un rôle dans le développement neuronal chez ces ancêtres des métazoaires bilatéraux, nous avons utilisé des cultures primaires de cellules du cnidaire anthozoaire Renilla koellikeri (pensée de mer), doté d’un système nerveux des plus primitif. Nous avons trouvé que les deux types d’acide rétinoïque, 9-cis et 11-trans, induisent une prolifération cellulaire dose-dépendante en fonction du temps dans les boîtes de pétri enduites de polylysine. Les cultures cellulaires exposées à l’acide rétinoïque dans les boîtes sans polylysine montrent une différenciation en des cellules épithéliales. D’autre part, le NO induit exclusivement une différenciation neuronale dans les boîtes enduites de polylysine. Aucun autre type de cellules subit un différenciation en présence de NO et la densité des cellules dédifférenciées a diminué. Les prolongements des neurones différenciés semblent s’enchevêtrer et former un réseau neuronal assez dense. L’ensemble de ces observations suggère que l’acide rétinoïque, contrairement à NO, est associé à l’activité mitotique, et que l’acide rétinoïque et le NO sont impliqués différemment dans la spécification cellulaire, respectivement épithéliale et neuronale, chez la pensée de mer. Le type d’action déclenchée, qu’il soit la mitogénèse ou la différenciation (épithéliale ou neuronale), varie alors selon l’état d’adhésion des cellules au substrat. Comme les données moléculaires et paléontologiques rapprochent les cnidaires, telle la pensée de mer, des ancêtres des eumétazoaires, nos résultats suggèrent que le rôle morphogénétique de l’acide rétinoïque et du NO est enraciné dans l’ancêtre commun de tous les métazoaires.
Resumo:
Réalisé en cotutelle avec l'Université de Paris-sud XI, France.
Resumo:
Les avancés dans le domaine de l’intelligence artificielle, permettent à des systèmes informatiques de résoudre des tâches de plus en plus complexes liées par exemple à la vision, à la compréhension de signaux sonores ou au traitement de la langue. Parmi les modèles existants, on retrouve les Réseaux de Neurones Artificiels (RNA), dont la popularité a fait un grand bond en avant avec la découverte de Hinton et al. [22], soit l’utilisation de Machines de Boltzmann Restreintes (RBM) pour un pré-entraînement non-supervisé couche après couche, facilitant grandement l’entraînement supervisé du réseau à plusieurs couches cachées (DBN), entraînement qui s’avérait jusqu’alors très difficile à réussir. Depuis cette découverte, des chercheurs ont étudié l’efficacité de nouvelles stratégies de pré-entraînement, telles que l’empilement d’auto-encodeurs traditionnels(SAE) [5, 38], et l’empilement d’auto-encodeur débruiteur (SDAE) [44]. C’est dans ce contexte qu’a débuté la présente étude. Après un bref passage en revue des notions de base du domaine de l’apprentissage machine et des méthodes de pré-entraînement employées jusqu’à présent avec les modules RBM, AE et DAE, nous avons approfondi notre compréhension du pré-entraînement de type SDAE, exploré ses différentes propriétés et étudié des variantes de SDAE comme stratégie d’initialisation d’architecture profonde. Nous avons ainsi pu, entre autres choses, mettre en lumière l’influence du niveau de bruit, du nombre de couches et du nombre d’unités cachées sur l’erreur de généralisation du SDAE. Nous avons constaté une amélioration de la performance sur la tâche supervisée avec l’utilisation des bruits poivre et sel (PS) et gaussien (GS), bruits s’avérant mieux justifiés que celui utilisé jusqu’à présent, soit le masque à zéro (MN). De plus, nous avons démontré que la performance profitait d’une emphase imposée sur la reconstruction des données corrompues durant l’entraînement des différents DAE. Nos travaux ont aussi permis de révéler que le DAE était en mesure d’apprendre, sur des images naturelles, des filtres semblables à ceux retrouvés dans les cellules V1 du cortex visuel, soit des filtres détecteurs de bordures. Nous aurons par ailleurs pu montrer que les représentations apprises du SDAE, composées des caractéristiques ainsi extraites, s’avéraient fort utiles à l’apprentissage d’une machine à vecteurs de support (SVM) linéaire ou à noyau gaussien, améliorant grandement sa performance de généralisation. Aussi, nous aurons observé que similairement au DBN, et contrairement au SAE, le SDAE possédait une bonne capacité en tant que modèle générateur. Nous avons également ouvert la porte à de nouvelles stratégies de pré-entraînement et découvert le potentiel de l’une d’entre elles, soit l’empilement d’auto-encodeurs rebruiteurs (SRAE).
Resumo:
L’objectif de ce mémoire est de faire un état des lieux des connaissances produites sur les risques environnementaux et la vulnérabilité et appliquer ces connaissances à la ville de Kigali (Rwanda). Après avoir présenté différentes approches, nous avons retenu le cadre d’analyse qui s’inscrit dans l’approche de J.C. Thouret et R.D’Ercole (1996). Cette approche est articulée autour de trois dimensions : enjeux, facteurs de la vulnérabilité et réponses sociales. A travers l’application des éléments pertinents de ces trois dimensions dans le cas de la ville de Kigali, réalisée grâce à une analyse qualitative, centrée sur l’analyse des documents et des entrevues semi-dirigées, voici les principaux résultats que nous avons obtenus: l’analyse des enjeux a révélé que la ville de Kigali est confrontée à plusieurs dommages, parmi lesquels, on peut mentionner les pertes des vies humaines, la démolition des maisons, la contamination des rivières, la prolifération des maladies et la perturbation des besoins de base ( eau potable, électricité, transport) dues aux risques. Cette situation s’explique par la combinaison de plusieurs facteurs dont le relief collinaire, le sol granitique, les pluies violentes, le caractère centrifuge du réseau hydrographique, le sous-dimensionnement des ouvrages d’évacuation et le réseau d’assainissement insuffisant. D’autres facteurs amplifient la vulnérabilité dont l’explosion démographique consécutive à une urbanisation spontanée et inconsciente en zones inondables, l’ensablement des lits des rivières, le vide juridique, les politiques fragmentaires et le dysfonctionnement des acteurs impliqués dans la gestion des risques. Cette situation aurait probablement été améliorée si les réponses sociales étaient efficaces. Or, d’un côté, la faible perception de risque chez les résidants affectés par les risques accélère davantage la vulnérabilité et de l’autre côté, l’intervention significative des CIB n’est pas accompagnée d’actions complémentaires des institutions publiques et des agences internationales.
Resumo:
Ce mémoire s'intéresse à la vision par ordinateur appliquée à des projets d'art technologique. Le sujet traité est la calibration de systèmes de caméras et de projecteurs dans des applications de suivi et de reconstruction 3D en arts visuels et en art performatif. Le mémoire s'articule autour de deux collaborations avec les artistes québécois Daniel Danis et Nicolas Reeves. La géométrie projective et les méthodes de calibration classiques telles que la calibration planaire et la calibration par géométrie épipolaire sont présentées pour introduire les techniques utilisées dans ces deux projets. La collaboration avec Nicolas Reeves consiste à calibrer un système caméra-projecteur sur tête robotisée pour projeter des vidéos en temps réel sur des écrans cubiques mobiles. En plus d'appliquer des méthodes de calibration classiques, nous proposons une nouvelle technique de calibration de la pose d'une caméra sur tête robotisée. Cette technique utilise des plans elliptiques générés par l'observation d'un seul point dans le monde pour déterminer la pose de la caméra par rapport au centre de rotation de la tête robotisée. Le projet avec le metteur en scène Daniel Danis aborde les techniques de calibration de systèmes multi-caméras. Pour son projet de théâtre, nous avons développé un algorithme de calibration d'un réseau de caméras wiimotes. Cette technique basée sur la géométrie épipolaire permet de faire de la reconstruction 3D d'une trajectoire dans un grand volume à un coût minime. Les résultats des techniques de calibration développées sont présentés, de même que leur utilisation dans des contextes réels de performance devant public.
Resumo:
Généralement, les problèmes de conception de réseaux consistent à sélectionner les arcs et les sommets d’un graphe G de sorte que la fonction coût est optimisée et l’ensemble de contraintes impliquant les liens et les sommets dans G sont respectées. Une modification dans le critère d’optimisation et/ou dans l’ensemble de contraintes mène à une nouvelle représentation d’un problème différent. Dans cette thèse, nous nous intéressons au problème de conception d’infrastructure de réseaux maillés sans fil (WMN- Wireless Mesh Network en Anglais) où nous montrons que la conception de tels réseaux se transforme d’un problème d’optimisation standard (la fonction coût est optimisée) à un problème d’optimisation à plusieurs objectifs, pour tenir en compte de nombreux aspects, souvent contradictoires, mais néanmoins incontournables dans la réalité. Cette thèse, composée de trois volets, propose de nouveaux modèles et algorithmes pour la conception de WMNs où rien n’est connu à l’ avance. Le premiervolet est consacré à l’optimisation simultanée de deux objectifs équitablement importants : le coût et la performance du réseau en termes de débit. Trois modèles bi-objectifs qui se différent principalement par l’approche utilisée pour maximiser la performance du réseau sont proposés, résolus et comparés. Le deuxième volet traite le problème de placement de passerelles vu son impact sur la performance et l’extensibilité du réseau. La notion de contraintes de sauts (hop constraints) est introduite dans la conception du réseau pour limiter le délai de transmission. Un nouvel algorithme basé sur une approche de groupage est proposé afin de trouver les positions stratégiques des passerelles qui favorisent l’extensibilité du réseau et augmentent sa performance sans augmenter considérablement le coût total de son installation. Le dernier volet adresse le problème de fiabilité du réseau dans la présence de pannes simples. Prévoir l’installation des composants redondants lors de la phase de conception peut garantir des communications fiables, mais au détriment du coût et de la performance du réseau. Un nouvel algorithme, basé sur l’approche théorique de décomposition en oreilles afin d’installer le minimum nombre de routeurs additionnels pour tolérer les pannes simples, est développé. Afin de résoudre les modèles proposés pour des réseaux de taille réelle, un algorithme évolutionnaire (méta-heuristique), inspiré de la nature, est développé. Finalement, les méthodes et modèles proposés on été évalués par des simulations empiriques et d’événements discrets.
Resumo:
Depuis l’élection de Jean Charest en 2003, nous constatons que les dogmes issus du discours idéologique néolibéral (déréglementation, privatisation, libéralisation et réduction des dépenses publiques) ont régulièrement et fortement inondé tous les domaines de l’espace public québécois, tant chez les élus que chez les grands conglomérats de médias écrits et audiovisuels. Nous cherchions à savoir qui exerçait une si grande influence pour que rayonnent ces idées conservatrices dans les discours publics au Québec. Nos recherches nous ont menée à un Think Tank québécois : l’Institut économique de Montréal. L’élite intellectuelle qui compose cette organisation a su user d’une influence importante auprès de certains médias écrits, notamment ceux de Gesca, qui, grâce à l’étendue de son puissant réseau social et à son adhésion aux stratégies d’influence de ses pairs, les Think Tanks partisans, a relayé les idées néolibérales de l’IEDM à l’intérieur du discours public québécois. Ce Think Tank a ainsi fait rayonner ses idées dans les pages des quotidiens parmi les plus lus par les Québécois francophones. De jeunes Think Tanks comme l’IEDM jugent primordial l’accès aux médias pour façonner l’opinion et les politiques publiques. Leur objectif est de réussir à influencer la mise à l’agenda et le cadrage des médias afin qu’ils favorisent leurs propositions et leurs idées. L’analyse de trois cas a permis de montrer, qu’à trois moments différents, l’IEDM a influencé la mise à l’agenda des quotidiens de Gesca et que le cadrage s’est révélé favorable aux propositions de l’IEDM dans une proportion importante.
Resumo:
Le virus herpès simplex de type 1 (HSV 1) affecte la majorité de la population mondiale. HSV 1 cause de multiples symptômes délétères dont les plus communs sont les lésions orofaciales usuellement appelées feux sauvages. Le virus peut aussi causer des effets plus sérieux comme la cécité ou des troubles neurologiques. Le virus réside de façon permanente dans le corps de son hôte. Malgré l’existence de nombreux traitements pour atténuer les symptômes causés par HSV 1, aucun médicament ne peut éliminer le virus. Dans le but d’améliorer les connaissances concernant le cycle viral de HSV 1, ce projet cible l’étude du transport du virus dans la cellule hôte. Ce projet aura permis la collecte d’informations concernant le modus operandi de HSV 1 pour sortir des compartiments cellulaires où il séjourne. Les différentes expérimentations ont permis de publier 3 articles dont un article qui a été choisi parmi les meilleurs papiers par les éditeurs de « Journal of Virology » ainsi qu’un 4e article qui a été soumis. Premièrement, un essai in vitro reproduisant la sortie de HSV 1 du noyau a été mis sur pied, via l’isolation de noyaux issus de cellules infectées. Nous avons démontré que tout comme dans les cellules entières, les capsides s’évadent des noyaux isolés dans l’essai in vitro en bourgeonnant avec la membrane nucléaire interne, puis en s’accumulant sous forme de capsides enveloppées entre les deux membranes nucléaires pour finalement être relâchées dans le cytoplasme exclusivement sous une forme non enveloppée. Ces observations appuient le modèle de transport de dé-enveloppement/ré-enveloppement. Deuxièmement, dans le but d’identifier des joueurs clefs viraux impliqués dans la sortie nucléaire du virus, les protéines virales associées aux capsides relâchées par le noyau ont été examinées. La morphologie multicouche du virus HSV 1 comprend un génome d’ADN, une capside, le tégument et une enveloppe. Le tégument est un ensemble de protéines virales qui sont ajoutées séquentiellement sur la particule virale. La séquence d’ajout des téguments de même que les sites intracellulaires où a lieu la tégumentation sont l’objet d’intenses recherches. L’essai in vitro a été utilisé pour étudier cette tégumentation. Les données recueillies suggèrent un processus séquentiel qui implique l’acquisition des protéines UL36, UL37, ICP0, ICP8, UL41, UL42, US3 et possiblement ICP4 sur les capsides relâchées par le noyau. Troisièmement, pour obtenir davantage d’informations concernant la sortie de HSV 1 des compartiments membranaires de la cellule hôte, la sortie de HSV 1 du réseau trans golgien (TGN) a aussi été étudiée. L’étude a révélé l’implication de la protéine kinase D cellulaire (PKD) dans le transport post-TGN de HSV 1. PKD est connue pour réguler le transport de petits cargos et son implication dans le transport de HSV 1 met en lumière l’utilisation d’une machinerie commune pour le transport des petits et gros cargos en aval du TGN. Le TGN n’est donc pas seulement une station de triage, mais est aussi un point de rencontre pour différentes voies de transport intracellulaire. Tous ces résultats contribuent à une meilleure compréhension du processus complexe de maturation du virus HSV 1, ce qui pourrait mener au développement de meilleurs traitements pour combattre le virus. Les données amassées concernant le virus HSV 1 pourraient aussi être appliquées à d’autres virus. En plus de leur pertinence dans le domaine de la virologie, les découvertes issues de ce projet apportent également de nouveaux détails au niveau du transport intracellulaire.
Resumo:
Tout au long de la vie, le cerveau développe des représentations de son environnement permettant à l’individu d’en tirer meilleur profit. Comment ces représentations se développent-elles pendant la quête de récompenses demeure un mystère. Il est raisonnable de penser que le cortex est le siège de ces représentations et que les ganglions de la base jouent un rôle important dans la maximisation des récompenses. En particulier, les neurones dopaminergiques semblent coder un signal d’erreur de prédiction de récompense. Cette thèse étudie le problème en construisant, à l’aide de l’apprentissage machine, un modèle informatique intégrant de nombreuses évidences neurologiques. Après une introduction au cadre mathématique et à quelques algorithmes de l’apprentissage machine, un survol de l’apprentissage en psychologie et en neuroscience et une revue des modèles de l’apprentissage dans les ganglions de la base, la thèse comporte trois articles. Le premier montre qu’il est possible d’apprendre à maximiser ses récompenses tout en développant de meilleures représentations des entrées. Le second article porte sur l'important problème toujours non résolu de la représentation du temps. Il démontre qu’une représentation du temps peut être acquise automatiquement dans un réseau de neurones artificiels faisant office de mémoire de travail. La représentation développée par le modèle ressemble beaucoup à l’activité de neurones corticaux dans des tâches similaires. De plus, le modèle montre que l’utilisation du signal d’erreur de récompense peut accélérer la construction de ces représentations temporelles. Finalement, il montre qu’une telle représentation acquise automatiquement dans le cortex peut fournir l’information nécessaire aux ganglions de la base pour expliquer le signal dopaminergique. Enfin, le troisième article évalue le pouvoir explicatif et prédictif du modèle sur différentes situations comme la présence ou l’absence d’un stimulus (conditionnement classique ou de trace) pendant l’attente de la récompense. En plus de faire des prédictions très intéressantes en lien avec la littérature sur les intervalles de temps, l’article révèle certaines lacunes du modèle qui devront être améliorées. Bref, cette thèse étend les modèles actuels de l’apprentissage des ganglions de la base et du système dopaminergique au développement concurrent de représentations temporelles dans le cortex et aux interactions de ces deux structures.
Resumo:
Pourquoi, comment et quand y a-t-il changement institutionnel et politique en Afrique ? En examinant les stratégies de développement économique de l’Afrique postcoloniale et en s’intéressant à l’évolution du rôle de l’État – État comme acteur central du développement, tentative du retrait de l’État, interventionnisme limité au social, retour de l’État dans la sphère économique –, la présente thèse se propose d’expliquer le changement sous l’angle original des innovations politiques et institutionnelles. En effet, derrière l’apparente continuité que la plupart des auteurs tant analytiques que normatifs fustigent, il se produit des innovations dont nous proposons de rendre compte par le biais des variables idéationnelles, stratégiques, temporelles et institutionnelles. Cette thèse propose ainsi une analyse comparative inédite du rôle des acteurs nationaux (élites, États, administrations publiques du Bénin, Burkina Faso, Cameroun, Côte d’Ivoire, Congo, Sénégal, Mali, Niger, Togo), des institutions internationales (FMI, Banque mondiale, ONU) et des organisations d’intégration régionale (Union africaine, NEPAD) dans l’émergence et les trajectoires des stratégies de développement en Afrique. Les contextes temporels favorables, les crises des modèles précédents, les configurations et héritages institutionnels structurants, les stratégies instrumentales des acteurs intéressés, l’apprentissage politique, les dimensions cognitives et normatives des idées permettent d’expliquer la diffusion, la sédimentation et la conversion institutionnelles comme processus privilégiés d’innovation en Afrique. La critique de ces concepts permet de développer des outils mieux adaptés pour expliquer certaines innovations, soit l’inclusion et l’intrusion institutionnelles. L’inclusion institutionnelle est un processus mi-stratégique et mi-idéationnel à travers lequel les acteurs nationaux ou régionaux incluent intentionnellement des stratégies (ou solutions) internationales déjà existantes dans une nouvelle institution ou politique dans le but d’accroître la probabilité d’acceptation (reconnaissance, convenance sociale, partage réel ou supposé des mêmes valeurs) ou de succès (pour faire valoir les intérêts) de cette dernière dans un environnement politique structuré. Les idées sont constitutives des intérêts dans ce processus. L’intrusion institutionnelle renvoie à un processus mi-stratégique et mi-structurel par lequel les acteurs nationaux se font relativement imposer de nouvelles institutions ou politiques qu’ils n’acceptent qu’en raison de l’asymétrie de pouvoir, de la contrainte structurelle (structure), ou des gains escomptés (stratégies) des acteurs internationaux, alors que des solutions de rechange pertinentes et non contraignantes sont quasi inexistantes. Ceci n’exclut pas l’existence d’une marge de manœuvre des acteurs nationaux. Inspirés de spécialistes comme Nicolas van de Walle, Kathleen Thelen, Robert Bates, Barry Weingast, Alexander Wendt, Peter Hall, Theda Skocpol et Paul Pierson, ces concepts d’intrusion et d’inclusion institutionnelles que nous proposons réconcilient des approches parfois jugées contradictoires en intégrant les dimensions stratégiques, institutionnelles, historiques et idéationnelles à l’analyse d’un même objet scientifique. Au niveau empirique, la présente thèse permet d’avoir une meilleure compréhension des processus d’émergence des stratégies de développement économique en Afrique, ainsi qu’une meilleure connaissance des relations entre les acteurs internationaux, régionaux et nationaux en ce qui concerne l’émergence et le développement des institutions et des politiques publiques relatives au développement. Une attention particulière est accordée à la dynamique entre différents acteurs et variables (idées, intérêts, institution, temps) pour expliquer les principales stratégies des trois dernières décennies : les stratégies nationales de développement du Bénin, Burkina Faso, Cameroun, Côte d’Ivoire, Congo, Sénégal, Mali, Niger, Togo, le Plan d’action de Lagos, les programmes d’ajustement structurel, le Nouveau Partenariat pour le Développement de l’Afrique, les Documents de stratégie pour la réduction de la pauvreté et certaines interventions du Fonds monétaire international, de Banque mondiale et de l’ONU. En s’intéressant à la question de l’innovation délaissée à tort par la plupart des analyses sérieuses, la présente thèse renouvelle la discussion sur le changement et l’innovation politiques et institutionnels en Afrique et en science politique.
Resumo:
Nous avons investigué, via les simulations de Monte Carlo, les propriétés non-perturbatives du modèle de Higgs abélien en 2+1 dimensions sans et avec le terme de Chern-Simons dans la phase de symétrie brisée, en termes de ses excitations topologiques: vortex et anti-vortex. Le but du présent travail est de rechercher les phases possibles du système dans ce secteur et d'étudier l'effet du terme de Chern-Simons sur le potentiel de confinement induit par les charges externes trouvé par Samuel. Nous avons formulé une description sur réseau du modèle effectif en utilisant une tesselation tétraédrique de l'espace tridimensionnel Euclidien pour générer des boucles de vortex fermées. En présence du terme de Chern-Simons, dans une configuration donnée, nous avons formulé et calculé le nombre d'enlacement entre les différentes boucles de vortex fermées. Nous avons analysé les propriétés du vide et calculé les valeurs moyennes de la boucle de Wilson, de la boucle de Polyakov à différentes températures et de la boucle de 't Hooft en présence du terme de Chern-Simons. En absence du terme de Chern-Simons, en variant la masse des boucles de vortex, nous avons trouvé deux phases distinctes dans le secteur de la symétrie brisée, la phase de Higgs habituelle et une autre phase caractérisée par l'apparition de boucles infinies. D'autre part, nous avons trouvé que la force entre les charges externes est écrantée correpondant à la loi périmètre pour la boucle de Wilson impliquant qu'il n'y a pas de confinement. Cependant, après la transition, nous avons trouvé qu'il existe toujours une portion de charges externes écrantée, mais qu'après une charge critique, l'énergie libre diverge. En présence du terme de Chern-Simons, et dans la limite de constante de couplage faible de Chern-Simons nous avons trouvé que les comportements de la boucle de Wilson et de la boucle de 't Hooft ne changent pas correspondants à une loi périmètre, impliquant qu'il n'y a pas de confinement. De plus, le terme de Chern-Simons ne contribue pas à la boucle de Wilson.
Resumo:
L’étude du discours de guerre destiné aux enfants de Montréal, entre 1914 et 1918, concernant la Première Guerre mondiale n’a pas retenu l’attention des historiens canadiens. Pourtant, à travers une analyse des journaux montréalais, des revues pédagogiques du Québec, de certains écrits gouvernementaux, il est possible de comprendre comment la guerre est expliquée aux enfants. Ce mémoire vise à mettre en relief les caractéristiques et les objectifs du discours de guerre destiné aux enfants montréalais d’âge primaire. Le premier chapitre s’attardera aux connaissances factuelles transmises aux enfants afin d’établir les raisons qui leur sont présentées quant aux origines de la guerre. Nous constaterons la mise en place d’un triple discours : un discours de peur, un discours visant à rassurer et un discours culpabilisant pour sensibiliser les enfants à l’effort de guerre canadien. Le chapitre suivant analyse les principales caractéristiques des récits de guerre proposés aux enfants. Nous serons ainsi en mesure de cerner les objectifs de ce genre d’histoires. Enfin, nous verrons la place de l’enfant dans le discours de guerre. Nous montrerons comment l’enfant des récits de guerre devient un acteur dans le conflit et comment les écrits utilisent les actions héroïques enfantines. Dans cette guerre qui insiste sur la mobilisation de tous, le discours s’adresse aux filles et, surtout, aux garçons. La Première Guerre mondiale est un sujet incontournable à tel point qu’elle sert de prétexte pour inculquer aux enfants certaines connaissances traditionnelles et nouvelles. Elle s’immisce dans le quotidien de l’enfant, à l’école, dans ses loisirs et dans ses corvées familiales. L’enfant doit développer son patriotisme et les qualités « naturelles » propres à son sexe : les garçons doivent apprendre à faire la guerre et les filles à la soutenir. Le discours de guerre cherche à embrigader l’enfant dans l’effort de guerre canadien. Il insiste sur plusieurs nouvelles thématiques qui auparavant ne faisaient pas partie des enseignements habituels, comme la situation géopolitique de la Belgique. Il incite les petits Montréalais à devenir de bons futurs citoyens qui sauront, si l’occasion se représente, donner leur vie pour leur pays, mais, dans l’immédiat, il les incite surtout à participer à l’effort de guerre.
Resumo:
Studies were funded by Colegio de Postgraduados, México. CONACyT, México. SRE, México. Ministère de l’Éducation du Québec, University of Montreal and an Operating Grant to B.D. Murphy from the Canadian Institutes of Health Research.
Resumo:
Les pays industrialisés comme le Canada doivent faire face au vieillissement de leur population. En particulier, la majorité des personnes âgées, vivant à domicile et souvent seules, font face à des situations à risques telles que des chutes. Dans ce contexte, la vidéosurveillance est une solution innovante qui peut leur permettre de vivre normalement dans un environnement sécurisé. L’idée serait de placer un réseau de caméras dans l’appartement de la personne pour détecter automatiquement une chute. En cas de problème, un message pourrait être envoyé suivant l’urgence aux secours ou à la famille via une connexion internet sécurisée. Pour un système bas coût, nous avons limité le nombre de caméras à une seule par pièce ce qui nous a poussé à explorer les méthodes monoculaires de détection de chutes. Nous avons d’abord exploré le problème d’un point de vue 2D (image) en nous intéressant aux changements importants de la silhouette de la personne lors d’une chute. Les données d’activités normales d’une personne âgée ont été modélisées par un mélange de gaussiennes nous permettant de détecter tout événement anormal. Notre méthode a été validée à l’aide d’une vidéothèque de chutes simulées et d’activités normales réalistes. Cependant, une information 3D telle que la localisation de la personne par rapport à son environnement peut être très intéressante pour un système d’analyse de comportement. Bien qu’il soit préférable d’utiliser un système multi-caméras pour obtenir une information 3D, nous avons prouvé qu’avec une seule caméra calibrée, il était possible de localiser une personne dans son environnement grâce à sa tête. Concrêtement, la tête de la personne, modélisée par une ellipsoide, est suivie dans la séquence d’images à l’aide d’un filtre à particules. La précision de la localisation 3D de la tête a été évaluée avec une bibliothèque de séquence vidéos contenant les vraies localisations 3D obtenues par un système de capture de mouvement (Motion Capture). Un exemple d’application utilisant la trajectoire 3D de la tête est proposée dans le cadre de la détection de chutes. En conclusion, un système de vidéosurveillance pour la détection de chutes avec une seule caméra par pièce est parfaitement envisageable. Pour réduire au maximum les risques de fausses alarmes, une méthode hybride combinant des informations 2D et 3D pourrait être envisagée.