454 resultados para réseaux numériques


Relevância:

10.00% 10.00%

Publicador:

Resumo:

De nombreux problèmes pratiques qui se posent dans dans le domaine de la logistique, peuvent être modélisés comme des problèmes de tournées de véhicules. De façon générale, cette famille de problèmes implique la conception de routes, débutant et se terminant à un dépôt, qui sont utilisées pour distribuer des biens à un nombre de clients géographiquement dispersé dans un contexte où les coûts associés aux routes sont minimisés. Selon le type de problème, un ou plusieurs dépôts peuvent-être présents. Les problèmes de tournées de véhicules sont parmi les problèmes combinatoires les plus difficiles à résoudre. Dans cette thèse, nous étudions un problème d’optimisation combinatoire, appartenant aux classes des problèmes de tournées de véhicules, qui est liée au contexte des réseaux de transport. Nous introduisons un nouveau problème qui est principalement inspiré des activités de collecte de lait des fermes de production, et de la redistribution du produit collecté aux usines de transformation, pour la province de Québec. Deux variantes de ce problème sont considérées. La première, vise la conception d’un plan tactique de routage pour le problème de la collecte-redistribution de lait sur un horizon donné, en supposant que le niveau de la production au cours de l’horizon est fixé. La deuxième variante, vise à fournir un plan plus précis en tenant compte de la variation potentielle de niveau de production pouvant survenir au cours de l’horizon considéré. Dans la première partie de cette thèse, nous décrivons un algorithme exact pour la première variante du problème qui se caractérise par la présence de fenêtres de temps, plusieurs dépôts, et une flotte hétérogène de véhicules, et dont l’objectif est de minimiser le coût de routage. À cette fin, le problème est modélisé comme un problème multi-attributs de tournées de véhicules. L’algorithme exact est basé sur la génération de colonnes impliquant un algorithme de plus court chemin élémentaire avec contraintes de ressources. Dans la deuxième partie, nous concevons un algorithme exact pour résoudre la deuxième variante du problème. À cette fin, le problème est modélisé comme un problème de tournées de véhicules multi-périodes prenant en compte explicitement les variations potentielles du niveau de production sur un horizon donné. De nouvelles stratégies sont proposées pour résoudre le problème de plus court chemin élémentaire avec contraintes de ressources, impliquant dans ce cas une structure particulière étant donné la caractéristique multi-périodes du problème général. Pour résoudre des instances de taille réaliste dans des temps de calcul raisonnables, une approche de résolution de nature heuristique est requise. La troisième partie propose un algorithme de recherche adaptative à grands voisinages où de nombreuses nouvelles stratégies d’exploration et d’exploitation sont proposées pour améliorer la performances de l’algorithme proposé en termes de la qualité de la solution obtenue et du temps de calcul nécessaire.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Quel est le pouvoir des normes internationales de droits humains ? Ces normes ont-elles un pouvoir politique? En s’appuyant sur le cas mexicain (entre 1988 et 2006), la thèse tente de répondre à trois questionnements. Le premier est lié à la trajectoire des normes: les défenseurs mexicains des droits humains cherchent-ils l’appui d’acteurs internationaux pour promouvoir les droits humains vis-à-vis leur gouvernement, tel que le suggère le modèle du boomerang ? Deuxièmement, il s’agit de comprendre l’impact du processus de diffusion des normes sur le respect des droits humains : les acteurs internationaux et nationaux qui défendent les droits humains parviennent-ils à influencer les décisions politiques gouvernementales, en matière de protection des droits humains ? Et finalement: ces groupes contribuent-ils à changer le cours du processus de démocratisation d’un État ? Les résultats de la recherche permettent de tirer quelques conclusions. La thèse confirme dans un premier temps la théorie du boomerang de Keck et Sikkink (1998), puisque les pressions domestiques en matière de droits humains deviennent efficaces au moment où les acteurs domestiques gagnent l’appui des acteurs internationaux. En ce qui concerne l’impact de la diffusion des normes internationales des droits humains sur leur protection gouvernementale, il semble que le gouvernement mexicain entre 1988 et 2006 réagisse aux pressions des acteurs qui diffusent les normes de droits humains par la mise en place d’institutions et de lois et non par une protection effective de ces droits. Un deuxième type d’impact, lié à la diffusion des normes en droits humains, est observé sur le processus de démocratisation. La thèse montre que les acteurs qui diffusent les normes en droits humains jouent un rôle dans la mise en place de réformes électorales, tout en contribuant à une redéfinition plus démocratique des rapports de pouvoir entre la société civile et l’État.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Les humains communiquent via différents types de canaux: les mots, la voix, les gestes du corps, des émotions, etc. Pour cette raison, un ordinateur doit percevoir ces divers canaux de communication pour pouvoir interagir intelligemment avec les humains, par exemple en faisant usage de microphones et de webcams. Dans cette thèse, nous nous intéressons à déterminer les émotions humaines à partir d’images ou de vidéo de visages afin d’ensuite utiliser ces informations dans différents domaines d’applications. Ce mémoire débute par une brève introduction à l'apprentissage machine en s’attardant aux modèles et algorithmes que nous avons utilisés tels que les perceptrons multicouches, réseaux de neurones à convolution et autoencodeurs. Elle présente ensuite les résultats de l'application de ces modèles sur plusieurs ensembles de données d'expressions et émotions faciales. Nous nous concentrons sur l'étude des différents types d’autoencodeurs (autoencodeur débruitant, autoencodeur contractant, etc) afin de révéler certaines de leurs limitations, comme la possibilité d'obtenir de la coadaptation entre les filtres ou encore d’obtenir une courbe spectrale trop lisse, et étudions de nouvelles idées pour répondre à ces problèmes. Nous proposons également une nouvelle approche pour surmonter une limite des autoencodeurs traditionnellement entrainés de façon purement non-supervisée, c'est-à-dire sans utiliser aucune connaissance de la tâche que nous voulons finalement résoudre (comme la prévision des étiquettes de classe) en développant un nouveau critère d'apprentissage semi-supervisé qui exploite un faible nombre de données étiquetées en combinaison avec une grande quantité de données non-étiquetées afin d'apprendre une représentation adaptée à la tâche de classification, et d'obtenir une meilleure performance de classification. Finalement, nous décrivons le fonctionnement général de notre système de détection d'émotions et proposons de nouvelles idées pouvant mener à de futurs travaux.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Cette thèse cible l’étude d’une organisation sociotechnique pluraliste, le Réseau de centres d’excellence ArcticNet, établi depuis 2003 au sein de l’Université Laval et financé par le programme fédéral des Réseaux de centres d’excellence (RCE). Ce programme, effectif depuis 1988, est issu d’une initiative du ministère de l’Industrie Canada et des trois Conseils fédéraux de financement de la recherche scientifique (CRSNG, CRSH et IRSC). Par sa dimension interdisciplinaire et interinstitutionnelle, le RCE ArcticNet sollicite la mise en place de divers accommodements sur une thématique environnementale controversée, celle du développement de l’Arctique canadien côtier. Notre approche se concentre sur la description de ces collaborations pluralistes et l’analyse des stratégies de consensus mises en place par une organisation universitaire médiatrice. Si cette étude illustre le cas d’ArcticNet, elle questionne toutefois deux réalités d’ensemble: (1) D’un point de vue théorique, prépondérant dans cette thèse, les enjeux environnementaux et de développement durable s’inscrivent dans les nouvelles réalités de la production des connaissances portées par une coévolution entre science et société, contribuant à l’expansion des domaines de R&D ciblés; et, (2) D’un point de vue empirique illustratif, les éléments de formation et d’évolution d’un réseau sociotechnique intersectoriel et les stratégies des scientifiques dans la recherche et le développement de l’Arctique canadien côtier présentent un profil basé sur l’accommodement des parties prenantes. Cette recherche adhère au postulat épistémologique des théories des organisations sociotechniques pluralistes, plutôt qu’aux modèles théoriques de la société/économie de la connaissance. L’étude regroupe un total de 23 entrevues recueillies en 2008 et en 2010 auprès de l’administration, de membres scientifiques et de partenaires d’ArcticNet, suivant une logique de témoignage. Elle ouvre ainsi une nouvelle réflexion sur leur milieu de pratique de la science, plus particulièrement des sciences de l’environnement, vers lequel la société actuelle oriente la nouvelle production des connaissances, à travers les divers financements de la recherche et du développement.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Les centres d’appels sont des éléments clés de presque n’importe quelle grande organisation. Le problème de gestion du travail a reçu beaucoup d’attention dans la littérature. Une formulation typique se base sur des mesures de performance sur un horizon infini, et le problème d’affectation d’agents est habituellement résolu en combinant des méthodes d’optimisation et de simulation. Dans cette thèse, nous considérons un problème d’affection d’agents pour des centres d’appels soumis a des contraintes en probabilité. Nous introduisons une formulation qui exige que les contraintes de qualité de service (QoS) soient satisfaites avec une forte probabilité, et définissons une approximation de ce problème par moyenne échantillonnale dans un cadre de compétences multiples. Nous établissons la convergence de la solution du problème approximatif vers celle du problème initial quand la taille de l’échantillon croit. Pour le cas particulier où tous les agents ont toutes les compétences (un seul groupe d’agents), nous concevons trois méthodes d’optimisation basées sur la simulation pour le problème de moyenne échantillonnale. Étant donné un niveau initial de personnel, nous augmentons le nombre d’agents pour les périodes où les contraintes sont violées, et nous diminuons le nombre d’agents pour les périodes telles que les contraintes soient toujours satisfaites après cette réduction. Des expériences numériques sont menées sur plusieurs modèles de centre d’appels à faible occupation, au cours desquelles les algorithmes donnent de bonnes solutions, i.e. la plupart des contraintes en probabilité sont satisfaites, et nous ne pouvons pas réduire le personnel dans une période donnée sont introduire de violation de contraintes. Un avantage de ces algorithmes, par rapport à d’autres méthodes, est la facilité d’implémentation.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Problématique : Le concept d’« Hôpital promoteur de santé » (HPS) a émergé dans le sillon de la Charte d’Ottawa (1986) qui plaide notamment pour une réorientation des services de santé vers des services plus promoteurs de santé. Il cible la santé des patients, du personnel, de la communauté et de l’organisation elle-même. Dans le cadre de la réforme du système de santé au Québec qui vise à rapprocher les services de la population et à faciliter le cheminement de toute personne au sein d’un réseau local de services de santé et de services sociaux (RLS), l’adoption du concept HPS semble constituer une fenêtre d’opportunité pour les CHU, désormais inclus dans des réseaux universitaires intégrés de soins de santé et rattachés aux RLS, pour opérer des changements organisationnels majeurs. Face au peu de données scientifiques sur l’implantation des dimensions des projets HPS, les établissements de santé ont besoin d’être accompagnés dans ce processus par le développement de stratégies claires et d’outils concrets pour soutenir l’implantation. Notre étude porte sur le premier CHU à Montréal qui a décidé d’adopter le concept et d’implanter notamment un projet pilote HPS au sein de son centre périnatal. Objectifs : Les objectifs de la thèse sont 1) d’analyser la théorie d’intervention du projet HPS au sein du centre périnatal; 2) d’analyser l’implantation du projet HPS et; 3) d’explorer l’intérêt de l’évaluation développementale pour appuyer le processus d’implantation. Méthodologie : Pour mieux comprendre l’implantation du projet HPS, nous avons opté pour une étude de cas qualitative. Nous avons d’abord analysé la théorie d’intervention, en procédant à une revue de la littérature dans le but d’identifier les caractéristiques du projet HPS ainsi que les conditions nécessaires à son implantation. En ce qui concerne l’analyse d’implantation, notre étude de cas unique a intégré deux démarches méthodologiques : l’une visant à apprécier le niveau d’implantation et l’autre, à analyser les facteurs facilitants et les contraintes. Enfin, nous avons exploré l’intérêt d’une évaluation développementale pour appuyer le processus d’implantation. À partir d’un échantillonnage par choix raisonnés, les données de l’étude de cas ont été collectées auprès d’informateurs clés, des promoteurs du projet HPS, des gestionnaires, des professionnels et de couples de patients directement concernés par l’implantation du projet HPS au centre périnatal. Une analyse des documents de projet a été effectuée et nous avons procédé à une observation participante dans le milieu. Résultats : Le premier article sur l’analyse logique présente les forces et les faiblesses de la mise en oeuvre du projet HPS au centre périnatal et offre une meilleure compréhension des facteurs susceptibles d’influencer l’implantation. Le second article apprécie le niveau d’implantation des quatre dimensions du projet HPS. Grâce à la complémentarité des différentes sources utilisées, nous avons réussi à cerner les réussites globales, les activités partiellement implantées ou en cours d’implantation et les activités reposant sur une théorie d’intervention inadéquate. Le troisième article met en évidence l’influence des caractéristiques de l’intervention, des contextes externe et interne, des caractéristiques individuelles sur le processus d’implantation à partir du cadre d’analyse de l’implantation développé par Damschroder et al. (2009). Enfin, le dernier article présente les défis rencontrés par la chercheure dans sa tentative d’utilisation de l’évaluation développementale et propose des solutions permettant d’anticiper les difficultés liées à l’intégration des exigences de recherche et d’utilisation. Conclusion : Cette thèse contribue à enrichir la compréhension de l’implantation du projet HPS dans les établissements de santé et, particulièrement, en contexte périnatal. Les résultats obtenus sont intéressants pour les chercheurs et les gestionnaires d’hôpitaux ou d’établissements de santé qui souhaitent implanter ou évaluer les projets HPS dans leurs milieux.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

L’explosion de la nanotechnologie a permis l’intégration d’une multitude de nanoparticules dans des produits de consommation. Les nanoparticules d’argent (nAg) sont les plus utilisées à ces fins, selon les derniers recensements disponibles. La plupart des études toxicologiques, à ce jour, ont fait état de l’implication très évidente de l’ion Ag+ dans la toxicité aigüe des nAg; cependant, quelques études ont mis en évidence des effets toxicologiques dus aux nAg. Il y a un certain consensus à propos d’un risque de contamination des eaux douces via leur rejet par les effluents des réseaux d’aqueducs. Puisque les concentrations en Ag+ sont généralement très faibles dans les eaux douces (de l’ordre du pg L-1), de par la formation de complexes non-labiles avec des thiols (organiques et inorganiques) et des sulfures, la toxicité inhérente aux nAg pourrait ne pas être négligeable- comparativement aux tests en laboratoires. Cette étude s’intéressait donc aux mécanismes de bioaccumulation d’argent par l’algue verte C. reinhardtii suite à l’exposition à des nAg de 5 nm (enrobage d’acide polyacrylique). La bioaccumulation d’argent pour l’exposition à Ag+ servait de point de comparaison; également, les abondances de l’ARNm de l’isocitrate lyase 1 (ICL1) et de l’ARNm de Copper Transporter 2 (CTR2) étaient mesurées comme témoins biologiques de la bioaccumulation de Ag+. Les expériences ont été menées en présence d’un tampon organique (NaHEPES, 2 x 10-2 M; Ca2+, 5x 10-5 M) à pH de 7,00. Pour des expositions à temps fixe de 2 heures, la bioaccumulation d’argent pour nAg était supérieure à ce qui était prédit par sa concentration initiale en Ag+; cependant, il n’y avait pas de différence d’abondance des ARNm de ICL1 et de CTR2 entre nAg et Ag+. D’un autre côté, pour une exposition à temps variables, la bioaccumulation d’argent pour nAg était supérieure à ce qui était prédit par sa concentration initiale en Ag+ et une augmentation de l’abondance de l’ARNm de ICL1 était notée pour nAg. Cependant, il n’y avait aucune différence significative au niveau de l’abondance de l’ARNm de CTR2 entre nAg et une solution équivalente en Ag+. L’ajout d’un fort ligand organique (L-Cystéine; log K= 11,5) à une solution de nAg en diminuait radicalement la bioaccumulation d’argent par rapport à nAg-sans ajout de ligand. Par contre, l’abondance des ARNm de ICL1 et de CTR2 étaient stimulées significativement par rapport à une solution contrôle non-exposée à nAg, ni à Ag+. Les résultats suggéraient fortement que les nAg généraient des ions Ag+ au contact de C. reinhardtii.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Si la manière de produire une image depuis la reproductibilité technique a toujours été profondément déterminée par la captation d’une réalité physique, le numérique (qui constitue une méthode d’inscription visuelle distincte) devrait, en théorie, modifier la relation du spectateur à ces « nouvelles images ». Toutefois, en pratique, le spectateur fait-il l’expérience des images numériques d’une manière différente de celles issues de la captation? Afin de répondre à cette question, ce mémoire analyse, à l’aide de l’approche sémio-pragmatique, comment le spectateur a conditionné son regard à travers les techniques de la captation (photographie, cinéma et vidéo). Ensuite, cette étude compare les habitudes et les attentes visuelles engendrées par ces techniques aux images numériques. Enfin, cette étude situe le problème de la rupture dans une perspective plus large que celle des techniques afin de poser le questionnement dans toute une tradition de la représentation artistique.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

La thèse qui suit est organisée en deux volets: un premier volet portant sur les modèles de masse de galaxies et un second volet sur la conception de revêtements optiques et le contrôle de leurs propriétés mécaniques. Les modèles de masse présentés dans cette thèse ont été réalisés sur un sous-échantillon de dix galaxies de l'étude SINGS comprenant neuf galaxies normales et une galaxie naine. Ce travail visait à fixer le rapport masse-luminosité du disque à tout rayon en utilisant les résultats de modèles d'évolution galactique chimio-spectrophotométriques ajustés spécifiquement à chaque galaxie grâce à son profil de photométrie multi-bandes. Les résultats montrent que les disques stellaires tels que normalisés par les rapports masse-luminosité issus des modèles ont des masses cohérentes dans toutes les bandes étudiées de l'ultra-violet, du visible ainsi que du proche infrarouge (bandes FUV à IRAC2). Ces disques peuvent être considérés comme maximaux par rapport aux données cinématiques des galaxies étudiées. Ceci est dû au fait que le rapport M/L est plus élevé au centre que sur les bords. Les disques étant maximaux et physiquement justifiés, on ne peut dès lors ignorer les effets de composants tels que les bulbes ou les barres et les corrections nécessaires doivent être apportées aux profils de luminosité et de vitesses de rotation de la galaxie. Dans les travaux de la seconde partie, le logiciel en développement libre OpenFilters a été modifié afin de tenir compte des contraintes mécaniques dans la conception numérique de revêtements optiques. Les contraintes mécaniques dans les couches minces ont un effet délétère sur leurs performances optiques. Un revêtement destiné à rendre réflectives les lames d'un étalon Fabry-Perot utilisé en astronomie a été conçu et fabriqué afin d'évaluer les performances réelles de la méthode. Ce cas a été choisi à cause de la diminution de la finesse d'un étalon Fabry-Perot apporté par la courbure des lames sous l'effet des contraintes. Les résultats montrent que les mesures concordent avec les modèles numériques et qu'il est donc possible à l'aide de ce logiciel d'optimiser les revêtements pour leur comportement mécanique autant que pour leurs propriétés optiques.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Les calculs numériques ont été effectués à l'aide du logiciel SAGE.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

L’apprentissage supervisé de réseaux hiérarchiques à grande échelle connaît présentement un succès fulgurant. Malgré cette effervescence, l’apprentissage non-supervisé représente toujours, selon plusieurs chercheurs, un élément clé de l’Intelligence Artificielle, où les agents doivent apprendre à partir d’un nombre potentiellement limité de données. Cette thèse s’inscrit dans cette pensée et aborde divers sujets de recherche liés au problème d’estimation de densité par l’entremise des machines de Boltzmann (BM), modèles graphiques probabilistes au coeur de l’apprentissage profond. Nos contributions touchent les domaines de l’échantillonnage, l’estimation de fonctions de partition, l’optimisation ainsi que l’apprentissage de représentations invariantes. Cette thèse débute par l’exposition d’un nouvel algorithme d'échantillonnage adaptatif, qui ajuste (de fa ̧con automatique) la température des chaînes de Markov sous simulation, afin de maintenir une vitesse de convergence élevée tout au long de l’apprentissage. Lorsqu’utilisé dans le contexte de l’apprentissage par maximum de vraisemblance stochastique (SML), notre algorithme engendre une robustesse accrue face à la sélection du taux d’apprentissage, ainsi qu’une meilleure vitesse de convergence. Nos résultats sont présent ́es dans le domaine des BMs, mais la méthode est générale et applicable à l’apprentissage de tout modèle probabiliste exploitant l’échantillonnage par chaînes de Markov. Tandis que le gradient du maximum de vraisemblance peut-être approximé par échantillonnage, l’évaluation de la log-vraisemblance nécessite un estimé de la fonction de partition. Contrairement aux approches traditionnelles qui considèrent un modèle donné comme une boîte noire, nous proposons plutôt d’exploiter la dynamique de l’apprentissage en estimant les changements successifs de log-partition encourus à chaque mise à jour des paramètres. Le problème d’estimation est reformulé comme un problème d’inférence similaire au filtre de Kalman, mais sur un graphe bi-dimensionnel, où les dimensions correspondent aux axes du temps et au paramètre de température. Sur le thème de l’optimisation, nous présentons également un algorithme permettant d’appliquer, de manière efficace, le gradient naturel à des machines de Boltzmann comportant des milliers d’unités. Jusqu’à présent, son adoption était limitée par son haut coût computationel ainsi que sa demande en mémoire. Notre algorithme, Metric-Free Natural Gradient (MFNG), permet d’éviter le calcul explicite de la matrice d’information de Fisher (et son inverse) en exploitant un solveur linéaire combiné à un produit matrice-vecteur efficace. L’algorithme est prometteur: en terme du nombre d’évaluations de fonctions, MFNG converge plus rapidement que SML. Son implémentation demeure malheureusement inefficace en temps de calcul. Ces travaux explorent également les mécanismes sous-jacents à l’apprentissage de représentations invariantes. À cette fin, nous utilisons la famille de machines de Boltzmann restreintes “spike & slab” (ssRBM), que nous modifions afin de pouvoir modéliser des distributions binaires et parcimonieuses. Les variables latentes binaires de la ssRBM peuvent être rendues invariantes à un sous-espace vectoriel, en associant à chacune d’elles, un vecteur de variables latentes continues (dénommées “slabs”). Ceci se traduit par une invariance accrue au niveau de la représentation et un meilleur taux de classification lorsque peu de données étiquetées sont disponibles. Nous terminons cette thèse sur un sujet ambitieux: l’apprentissage de représentations pouvant séparer les facteurs de variations présents dans le signal d’entrée. Nous proposons une solution à base de ssRBM bilinéaire (avec deux groupes de facteurs latents) et formulons le problème comme l’un de “pooling” dans des sous-espaces vectoriels complémentaires.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Entre 1378 et 1417, l’Église est d’abord divisée entre deux, puis entre trois papes concurrents. Alors qu’Urbain VI et ses successeurs s’installent à Rome, Clément VII et son successeur rentrent en Avignon. Cette thèse répertorie et analyse les différentes expériences normandes en réponse au Grand Schisme d’Occident. Les engagements normands pour résoudre le schisme sont pluriels et s’expriment différemment selon les milieux. S’appuyant sur des sources diverses telles que le Registre des suppliques des archives du Vatican, les archives de l’Université de Paris et les archives locales, elle met en évidence les différents courants qui ont coexisté en Normandie en réaction au Grand Schisme d’Occident. Alors que la noblesse normande était généralement favorable aux papes d’Avignon, reconnus officiellement par le roi de France, d’importants courants de résistance envers cette papauté se sont aussi manifestés dans les milieux universitaires et au sein du clergé normand, poussant même certains à choisir l’exil en terre urbaniste. Ces exilés normands, bien que peu nombreux, ont exercé une influence considérable et ont été peu étudiés en tant que groupe auparavant. Parmi l’importante majorité de ceux qui restèrent dans l’obédience avignonnaise, plusieurs intellectuels normands furent pourtant reconnus comme étant d’acerbes critiques, voire des ennemis de Clément VII et de Benoît XIII. Les liens qu’ont maintenus les exilés normands avec leurs collègues restés en terre clémentiste ont joué un rôle appréciable dans le rapprochement des obédiences opposées au début du XVe siècle. La présente thèse permet de mettre en lumière les multiples attitudes normandes en réponse au schisme, d’approfondir la connaissance portant sur les milieux normands touchés par la crise, ainsi que sur les débats qui l’ont entourée, et de poursuivre la réflexion sur la question de l’obéissance et des réseaux normands à l’œuvre pendant cette période.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Cette recherche explore le sens que la « génération de l’information » (20-35 ans) donne à l’engagement. Alors que sociologues et médias ont longtemps brandi des chiffres alarmants concernant la désaffection électorale des jeunes et leur rejet des associations ou groupes de pression usuels, le développement du Web 2.0 semble donner lieu à de nouvelles formes d’action visant le changement social, qui sont particulièrement prisées par les jeunes. Analysant leur recours à des pratiques de manifestations éclairs (flash mobs), de cyberdissidence, l’utilisation du micro-blogging et des réseaux Facebook et Twitter dans le cadre de mobilisations récentes, des enquêtes suggèrent qu’elles témoignent d’une nouvelle culture de la participation sociale et politique, qui appelle à repenser les façons de concevoir et de définir l’engagement. Or, si nous assistons à une transformation profonde des répertoires et des modes d’action des jeunes, il demeure difficile de comprendre en quoi et comment l’utilisation des TIC influence leur intérêt ou motivation à « agir ». Que veut dire s’engager pour les jeunes aujourd’hui ? Comment perçoivent-ils le contexte social, politique et médiatique ? Quelle place estiment-ils pouvoir y occuper ? Soulignant l’importance du sens que les acteurs sociaux donnent à leurs pratiques, la recherche s’éloigne des perspectives technocentristes pour explorer plus en profondeur la façon dont de jeunes adultes vivent, expérimentent et interprètent l’engagement dans le contexte médiatique actuel. La réflexion s’ancre sur une observation empirique et deux séries d’entretiens en profondeur (de groupe et individuels), menés auprès de 137 jeunes entre 2009-2012. Elle analyse un ensemble de représentations, perceptions et pratiques d’individus aux horizons et aux modes d’engagement variés, soulignant les multiples facteurs qui agissent sur la façon dont ils choisissent d’agir et les raisons qui les mènent à recourir aux TIC dans le cadre de pratiques spécifiques. À la croisée d’une multiplication des modes de participation et des modes d’interaction qui marquent l’univers social et politique des jeunes, la recherche propose de nouvelles hypothèses théoriques et une métaphore conceptuelle, le « murmure des étourneaux », pour penser la façon dont les pratiques d’affichage personnel, de relais, et d’expérimentation mises en avant par les jeunes s’arriment en réseau à celles d’autrui pour produire des « dérives culturelles » : des changements importants dans les façons de percevoir, d’agir et de penser. Loin d’une génération apathique ou technophile, les propos soulevés en entretiens suggèrent un processus réflexif de construction de sens, dont l’enjeu vise avant tout à donner l’exemple, et à penser ensemble de nouveaux possibles. La recherche permet d’offrir un éclairage qualitatif et approfondi sur ce qui caractérise la façon dont les jeunes perçoivent et définissent l’engagement, en plus d’ouvrir de nouvelles avenues pour mieux comprendre comment ils choisissent d’agir à l’ère du Web.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Les ondes lentes (OL) et les fuseaux de sommeil (FS) caractérisent le sommeil lent. Ces ondes sont particulièrement vulnérables aux effets du vieillissement, et ce, dès le milieu de l’âge adulte. La signification fonctionnelle de ces changements demeure toutefois inconnue. Les OL constituent des marqueurs sensibles de la pression homéostatique au sommeil qui augmente avec la durée de l’éveil et qui diminue avec la durée de sommeil. L’hypothèse que les changements des OL puissent refléter une altération de la régulation homéostatique demeure toujours matière à débat dans la littérature. D’autre part, les FS et les OL ont tous deux été associés à la plasticité cérébrale et à la cognition. La correspondance entre les ondes en sommeil lent et le fonctionnement cognitif au cours du vieillissement normal demeure peu étudiée et les résultats sont inconsistants. L’objectif de cette thèse est de déterminer comment l’âge affecte la réponse homéostatique des OL et d’évaluer l’association entre les caractéristiques des ondes en sommeil lent et les performances cognitives chez des personnes d’âge moyen et âgées. La première étude a évalué l’effet de 25 heures d’éveil sur les OL durant un épisode de sommeil de récupération diurne chez de jeunes adultes et des personnes d’âge moyen. Comparativement aux jeunes, les personnes d’âge moyen ont montré une augmentation atténuée de la densité des OL après la privation de sommeil. Elles ont également montré une augmentation plus faible de la synchronisation neuronale durant une OL dans les régions frontales et préfrontales, mesurée par l’amplitude et la pente des OL. La deuxième étude a évalué le lien prédictif des OL, des FS et de l’architecture du sommeil sur les performances à des tests neuropsychologiques mesurant les capacités attentionnelles, les fonctions exécutives et les capacités d’apprentissage verbal chez des participants d’âge moyen et âgés en bonne santé. Seule la fluence verbale était associée à la densité et à la pente des OL. Les OL ne semblent donc pas constituer un marqueur stable du fonctionnement cognitif. Comparativement aux OL, les caractéristiques des FS étaient associées de façon plus systématique aux performances cognitives et plus particulièrement aux capacités d’apprentissage et aux fonctions attentionnelles. Dans l’ensemble, cette thèse suggère que l’augmentation plus faible de la synchronisation neuronale dans les régions antérieures après une privation de sommeil est expliquée par une plasticité synaptique réduite chez les personnes d’âge moyen comparativement aux jeunes. Par ailleurs, la capacité à générer une activité neuronale synchronisée, mesurée par les OL, ne prédit ni la capacité à maintenir le sommeil durant le jour, ni les fonctions cognitives de façon consistante. Les FS, quant à eux, représentent un meilleur marqueur du fonctionnement cognitif au cours du vieillissement normal. Les FS pourraient refléter une meilleure intégrité anatomique/physiologique des réseaux neuronaux impliqués dans les capacités attentionnelles et d’apprentissage.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Ce document traite premièrement des diverses tentatives de modélisation et de simulation de la nage anguilliforme puis élabore une nouvelle technique, basée sur la méthode de la frontière immergée généralisée et la théorie des poutres de Reissner-Simo. Cette dernière, comme les équations des fluides polaires, est dérivée de la mécanique des milieux continus puis les équations obtenues sont discrétisées afin de les amener à une résolution numérique. Pour la première fois, la théorie des schémas de Runge-Kutta additifs est combinée à celle des schémas de Runge-Kutta-Munthe-Kaas pour engendrer une méthode d’ordre de convergence formel arbitraire. De plus, les opérations d’interpolation et d’étalement sont traitées d’un nouveau point de vue qui suggère l’usage des splines interpolatoires nodales en lieu et place des fonctions d’étalement traditionnelles. Enfin, de nombreuses vérifications numériques sont faites avant de considérer les simulations de la nage.