366 resultados para Domaines chromosomiques de corégulation


Relevância:

10.00% 10.00%

Publicador:

Resumo:

Le Problème de Tournées de Véhicules (PTV) est une clé importante pour gérér efficacement des systèmes logistiques, ce qui peut entraîner une amélioration du niveau de satisfaction de la clientèle. Ceci est fait en servant plus de clients dans un temps plus court. En terme général, il implique la planification des tournées d'une flotte de véhicules de capacité donnée basée à un ou plusieurs dépôts. Le but est de livrer ou collecter une certain quantité de marchandises à un ensemble des clients géographiquement dispersés, tout en respectant les contraintes de capacité des véhicules. Le PTV, comme classe de problèmes d'optimisation discrète et de grande complexité, a été étudié par de nombreux au cours des dernières décennies. Étant donné son importance pratique, des chercheurs dans les domaines de l'informatique, de la recherche opérationnelle et du génie industrielle ont mis au point des algorithmes très efficaces, de nature exacte ou heuristique, pour faire face aux différents types du PTV. Toutefois, les approches proposées pour le PTV ont souvent été accusées d'être trop concentrées sur des versions simplistes des problèmes de tournées de véhicules rencontrés dans des applications réelles. Par conséquent, les chercheurs sont récemment tournés vers des variantes du PTV qui auparavant étaient considérées trop difficiles à résoudre. Ces variantes incluent les attributs et les contraintes complexes observés dans les cas réels et fournissent des solutions qui sont exécutables dans la pratique. Ces extensions du PTV s'appellent Problème de Tournées de Véhicules Multi-Attributs (PTVMA). Le but principal de cette thèse est d'étudier les différents aspects pratiques de trois types de problèmes de tournées de véhicules multi-attributs qui seront modélisés dans celle-ci. En plus, puisque pour le PTV, comme pour la plupart des problèmes NP-complets, il est difficile de résoudre des instances de grande taille de façon optimale et dans un temps d'exécution raisonnable, nous nous tournons vers des méthodes approcheés à base d’heuristiques.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Les troubles schizophréniques (SCZ) ont une forte héritabilité, de l’ordre de 80%, mais, une très faible part du risque génétique a été identifiée. La plupart des études ont considéré l’implication de polymorphismes fréquents, chacun ayant un effet relativement faible individuellement, alors que les études de variants du nombre de copies (CNVs) ainsi que les études d’anomalies chromosomiques ont pointé l’implication possible de variants rares et de novo à une forte pénétrance. Dans une première partie, nous présentons une synthèse sur les facteurs génétiques dans la SCZ, puis une revue des arguments en faveur de l’implication d’anomalies du système glutamatergique dans la SCZ, domaine sur lequel s’est centré notre travail. Notre travail s’inscrit dans un projet plus vaste, Synapse to Disease (S2D) ayant pour objectif de séquencer 1000 gènes synaptiques dans des cohortes de patients atteints de schizophrénie ou de troubles du spectre autistique. Nous avons exploré en particulier le système glutamatergique et les récepteurs NMDA. Dans un premier article, nous montrons une association d’une mutation troncante de novo de la kinésine 17, impliquée dans le transport de la sous-unité GRIN2B des récepteurs NMDA. Dans un second article, nous explorons les mutations rares et de novo dans les sous-unités des récepteurs NMDA et montrons l’association de mutation de novo dans GRIN2A et GRIN2B avec des cas de SCZ et d’autisme. Nos résultats renforcent l’idée qu’une part des cas de schizophrénie pourrait être due à l’implication de mutations rare à effet majeur, hypothèse alternative mais non exclusive à l’hypothèse d’interactions entre variants génétiques fréquents à effet mineur.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

L'ère numérique dans laquelle nous sommes entrés apporte une quantité importante de nouveaux défis à relever dans une multitude de domaines. Le traitement automatique de l'abondante information à notre disposition est l'un de ces défis, et nous allons ici nous pencher sur des méthodes et techniques adaptées au filtrage et à la recommandation à l'utilisateur d'articles adaptés à ses goûts, dans le contexte particulier et sans précédent notable du jeu vidéo multi-joueurs en ligne. Notre objectif est de prédire l'appréciation des niveaux par les joueurs. Au moyen d'algorithmes d'apprentissage machine modernes tels que les réseaux de neurones profonds avec pré-entrainement non-supervisé, que nous décrivons après une introduction aux concepts nécessaires à leur bonne compréhension, nous proposons deux architectures aux caractéristiques différentes bien que basées sur ce même concept d'apprentissage profond. La première est un réseau de neurones multi-couches pour lequel nous tentons d'expliquer les performances variables que nous rapportons sur les expériences menées pour diverses variations de profondeur, d'heuristique d'entraînement, et des méthodes de pré-entraînement non-supervisé simple, débruitant et contractant. Pour la seconde architecture, nous nous inspirons des modèles à énergie et proposons de même une explication des résultats obtenus, variables eux aussi. Enfin, nous décrivons une première tentative fructueuse d'amélioration de cette seconde architecture au moyen d'un fine-tuning supervisé succédant le pré-entrainement, puis une seconde tentative où ce fine-tuning est fait au moyen d'un critère d'entraînement semi-supervisé multi-tâches. Nos expériences montrent des performances prometteuses, notament avec l'architecture inspirée des modèles à énergie, justifiant du moins l'utilisation d'algorithmes d'apprentissage profonds pour résoudre le problème de la recommandation.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Il est bien connu des professionnels de la vision que l’ajustement des verres progressifs sur un patient presbyte peut induire de l’inconfort et des difficultés posturales (Timmis, Johnson, Elliott, & Buckley, 2010). Ces plaintes sont directement associées à l’information visuelle perçue à travers les verres progressifs. Le principal objectif de cette thèse est d’identifier quels sont les paramètres d’un stimulus visuel (p.ex. fréquence temporelle ou vélocité) à l’origine de la perturbation posturale et de l’inconfort. Les distorsions dynamiques perçues à travers des verres progressifs s’apparentent aux mouvements d’un bateau qui roule de droite à gauche ou qui tangue d’avant en arrière. Ce type de stimulation visuelle a été reproduit dans une voute d’immersion en réalité virtuelle avec un sol à texture de damier noir et blanc qui oscillait périodiquement de droite à gauche et d’avant en arrière à différentes fréquences et amplitudes. Les études qui portent sur ce sujet montrent que la réponse posturale induite visuellement augmente avec la vélocité de stimulation et diminue lorsque la fréquence augmente. Cette information peut paraitre contradictoire, car ces deux variables sont liées entre elles par l’amplitude et covarient dans le même sens. Le premier objectif de cette thèse était de déterminer les causes possibles de cette contradiction. En faisant varier la fréquence temporelle de stimulation visuelle, on retrouve deux domaines de réponse posturale. Le premier domaine correspond aux fréquences inférieures à 0,12 Hz. Dans ce domaine, la réponse posturale est visuodépendante et augmente avec la vélocité du stimulus. Le second domaine postural correspond aux fréquences supérieures à 0,25 Hz. Dans ce domaine, la réponse posturale sature et diminue avec l’augmentation de la fréquence. Cette saturation de la réponse posturale semble causée par des limitations biomécaniques et fréquentielles du système postural. D’autres études ont envisagé d’étudier l’inconfort subjectif induit par des stimuli visuels périodiques. Au sein de la communauté scientifique, deux théories principales se confrontent. La théorie sensorielle repose sur les conflits sensoriels induit par le stimulus visuel tandis que la théorie posturale suggère que l’inconfort est la conséquence de l’instabilité posturale. Nos résultats révèlent que l’inconfort subjectif induit par une stimulation visuelle dynamique dépend de la vélocité du stimulus plutôt que de sa fréquence. L’inconfort peut être prédit par l’instabilité naturelle des individus en l’absence de stimulus visuel comme le suggère la théorie posturale. Par contre, l’instabilité posturale induite par un stimulus visuel dynamique ne semble pas être une condition nécessaire et suffisante pour entrainer de l’inconfort. Ni la théorie sensorielle ni la théorie posturale ne permettent à elles seules d’expliquer tous les mécanismes à l’origine de l’inconfort subjectif. Ces deux théories sont complémentaires, l’une expliquant que l’instabilité intrinsèque est un élément prédictif de l’inconfort et l’autre que l’inconfort induit par un stimulus visuel dynamique résulte d’un conflit entre les entrées sensorielles et les représentations acquises par l’individu.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Les liposomes sont des nanovecteurs polyvalents et prometteurs quant à leur utilisation dans plusieurs domaines. Il y a une décennie, un nouveau type de liposome constitué d’amphiphiles monoalkylés et de stérols est né fortuitement dans notre groupe. Ils sont nommés Stérosomes puisqu’ils contiennent une grande proportion de stérols, entre 50 et 70 mol %. Les objectifs de cette thèse sont de développer de nouvelles formulations de Stérosomes ayant des caractéristiques spécifiques et d’acquérir une compréhension plus profonde des règles physicochimiques qui dictent leur comportement de phase. Nous avons spécifiquement examiné le rôle de motifs moléculaires des stérols, de la charge interfaciale et de la capacité à former des liaisons H dans les interactions intermoléculaires menant à l’autoassemblage. Le comportement de phase a été caractérisé par calorimétrie différentielle à balayage (DSC), par spectroscopie infrarouge (IR) et par spectroscopie de résonance magnétique nucléaire du deutérium (²H NMR). Premièrement, nous avons établi certaines corrélations entre la structure des stérols, leur tendance à former des bicouches fluides en présence d'amphiphile monoalkylé et la perméabilité des grandes vésicules unilamellaires (LUV) formées. La nature des stérols module les propriétés de mélange avec de l’acide palmitique (PA). Les stérols portant une chaîne volumineuse en position C17 sont moins aptes à induire des bicouches fluides que ceux qui ont une chaîne plus simple, comme celle du cholestérol. Un grand ordre de la chaîne alkyle de PA est un effet commun à tous les stérols investigués. Il a été démontré que la perméabilité des LUV peut être contrôlée en utilisant des stérols différents. Cependant, ces stérols n’ont aucun impact significatif sur la sensibilité des Stérosomes au pH. Afin de créer des liposomes qui sont sensibles au pH et qui ont une charge positive à la surface, des Stérosomes composés de stéarylamine et de cholestérol (Chol) ont été conçus et caractérisés. Il a été conclu que l’état de protonation de l’amine, dans ce travail, ou du groupe carboxylique, dans un travail précédent, confère une sensibilité au pH et détermine la charge à la surface du liposome. Les premiers Stérosomes complètement neutres ont été fabriqués en utilisant un réseau de fortes liaisons H intermoléculaires. Le groupe sulfoxyde est capable de former de fortes liaisons H avec le cholestérol et les molécules d’eau. Une bicouche fluide métastable a été obtenue, à la température de la pièce, à partir d'un mélange équimolaire d’octadécyl méthyl sulfoxyde (OMSO) et de Chol. Ce comportement distinct a permis d’extruder le mélange pour former des LUV à la température de la pièce. Après 30 h, le temps de vie de la phase métastable, des Stérosomes stables et imperméables existaient toujours sous une forme solide. Un diagramme de température-composition a été proposé afin de résumer le comportement de phase des mélanges d’OMSO/Chol. Finalement, nous avons élaboré des Stérosomes furtifs en incorporant du polyéthylène glycol (PEG) avec une ancre de cholestérol (PEG-Chol) à l’interface de Stérosomes de PA/Chol. Jusqu’à 20 mol % de PEG-Chol peut être introduit sans perturber la structure de la bicouche. La présence du PEG-Chol n’a aucun impact significatif sur la perméabilité de la LUV. L'encapsulation active de la doxorubicine, un médicament contre le cancer, a été réalisée malgré la faible perméabilité de ces LUV et la présence du PEG à l’interface. L’inclusion de PEG a modifié considérablement les propriétés de l’interface et a diminué la libération induite par la variation de pH observée avec des LUV nues de PA/Chol. Cette formulation inédite est potentiellement utile pour l’administration intraveineuse de médicaments.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Si l’alternative est de nos jours et dans nos sociétés occidentales un concept de plus en plus en vogue, son caractère lui, en demeure pas moins ambigu. En effet, et alors même que nombre de pratiques dites alternatives émergent de part et d’autre de la société, en faire allusion dans certains domaines équivaut à s’affliger soi-même d’une étiquette sur laquelle serait inscrite « New-Age » en caractère gras. Pourtant, son caractère loin d’évoquer cette seule dimension, semble par ailleurs être conséquente d un déséquilibre de plus en plus prégnant au sein même des prérogatives de l’État. Ce mémoire tente donc de rendre compte de ce phénomène tout en investiguant les répercussions de cette asymétrie sur l’intégration de pratiques médicales alternatives au Québec. Ceci dans l’intention non seulement d’explorer davantage la nature de la relation entre médecine alternative et biomédecine, mais aussi afin de poser un nouveau regard sur son expansion. Un regard, lequel permettrait potentiellement de poser les jalons nécessaires à un espace de conciliation entre les médecines, lequel découlerait alors d’un nouvel équilibre au cœur des prérogatives mêmes de l’État.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

L'ADN de chaque cellule est constamment soumis à des stress pouvant compromettre son intégrité. Les bris double-brins sont probablement les dommages les plus nocifs pour la cellule et peuvent être des sources de réarrangements chromosomiques majeurs et mener au cancer s’ils sont mal réparés. La recombinaison homologue et la jonction d’extrémités non-homologues (JENH) sont deux voies fondamentalement différentes utilisées pour réparer ce type de dommage. Or, les mécanismes régulant le choix entre ces deux voies pour la réparation des bris double-brins demeurent nébuleux. Le complexe Mre11-Rad50-Xrs2 (MRX) est le premier acteur à être recruté à ce type de bris où il contribue à la réparation par recombinaison homologue ou JENH. À l’intersection de ces deux voies, il est donc idéalement placé pour orienter le choix de réparation. Ce mémoire met en lumière deux systèmes distincts de phosphorylation du complexe MRX régulant spécifiquement le JENH. L’un dépend de la progression du cycle cellulaire et inhibe le JENH, tandis que l’autre requiert la présence de dommages à l’ADN et est nécessaire au JENH. Ensembles, nos résultats suggèrent que le complexe MRX intègre différents phospho-stimuli pour réguler le choix de la voie de réparation.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Cette thèse porte sur les gestes et attitudes qui ont caractérisé la figure aristocratique dans l’art européen entre 1661 et 1789. Cet intervalle correspond à la durée de vie d’un paradigme corporel noble appelé « le bon air et la bonne grâce », de son élaboration à la cour de Louis XIV et de sa diffusion hégémonique en Europe, jusqu’à son rejet définitif à la Révolution française. La société d’Ancien Régime a déployé tout un arsenal de moyens (exercices, instruments orthopédiques,…) pour intérioriser une grâce qui devait paraître innée et prouver la noblesse. Le maître à danser détenait le monopole de l’inculcation de cette grâce et de son élaboration suivant des critères hautement esthétiques. Les gestes et positions inventoriés ici, sont décrits et associés à leurs connotations d’origine, montrant qu’une connaissance approfondie et minutieuse de la gestuelle peut affiner notre compréhension d’un large pan de l’art des XVIIe et XVIIIe siècles. L’auteur démontre que cette hexis corporelle contemporaine transcende tous les domaines concernés par le corps noble (éducation, théâtre, danse, opéra, arts martiaux, etc.) et en vient à infiltrer la majorité des genres picturaux, bousculant les traditions artistiques déjà en place et s’affichant comme une alternative moderne à la grâce des Anciens. Le portrait, la gravure de mode, les figurines de porcelaine, les vues de villes et de jardins sont les plus touchés par ce phénomène. La bonne grâce s’affirme ainsi dans une culture visuelle qui, par ricochet, en vient à renforcer les pratiques sociales dont elle était le reflet. Cet aller-retour des attitudes aristocratiques entre l’art et la vie occasionne la standardisation de la figure et du corps aristocratiques. Dans la pastorale, la peinture d’histoire et la scène de genre, l’idéal aristocratique se manifeste, tantôt en négatif dans la figure du paysan, du Pierrot et de l’Arlequin, tantôt de manière idéalisée dans celles du berger et du héros galants. La substitution de gestes emphatiques et d’expressions faciales explicites par une gestuelle fondée sur la retenue et la dissimulation des passions, fondera une nouvelle historia moins lisible que la traditionnelle, mais plus subtile et insinuée, répondant ainsi mieux au goût et à la sensibilité aristocratique.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

L’objectif à moyen terme de ce travail est d’explorer quelques formulations des problèmes d’identification de forme et de reconnaissance de surface à partir de mesures ponctuelles. Ces problèmes ont plusieurs applications importantes dans les domaines de l’imagerie médicale, de la biométrie, de la sécurité des accès automatiques et dans l’identification de structures cohérentes lagrangiennes en mécanique des fluides. Par exemple, le problème d’identification des différentes caractéristiques de la main droite ou du visage d’une population à l’autre ou le suivi d’une chirurgie à partir des données générées par un numériseur. L’objectif de ce mémoire est de préparer le terrain en passant en revue les différents outils mathématiques disponibles pour appréhender la géométrie comme variable d’optimisation ou d’identification. Pour l’identification des surfaces, on explore l’utilisation de fonctions distance ou distance orientée, et d’ensembles de niveau comme chez S. Osher et R. Fedkiw ; pour la comparaison de surfaces, on présente les constructions des métriques de Courant par A. M. Micheletti en 1972 et le point de vue de R. Azencott et A. Trouvé en 1995 qui consistent à générer des déformations d’une surface de référence via une famille de difféomorphismes. L’accent est mis sur les fondations mathématiques sous-jacentes que l’on a essayé de clarifier lorsque nécessaire, et, le cas échéant, sur l’exploration d’autres avenues.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

L’introduction aux concepts unificateurs dans l’enseignement des mathématiques privilégie typiquement l’approche axiomatique. Il n’est pas surprenant de constater qu’une telle approche tend à une algorithmisation des tâches pour augmenter l’efficacité de leur résolution et favoriser la transparence du nouveau concept enseigné (Chevallard, 1991). Cette réponse classique fait néanmoins oublier le rôle unificateur du concept et n’encourage pas à l’utilisation de sa puissance. Afin d’améliorer l’apprentissage d’un concept unificateur, ce travail de thèse étudie la pertinence d’une séquence didactique dans la formation d’ingénieurs centrée sur un concept unificateur de l’algèbre linéaire: la transformation linéaire (TL). La notion d’unification et la question du sens de la linéarité sont abordées à travers l’acquisition de compétences en résolution de problèmes. La séquence des problèmes à résoudre a pour objet le processus de construction d’un concept abstrait (la TL) sur un domaine déjà mathématisé, avec l’intention de dégager l’aspect unificateur de la notion formelle (Astolfi y Drouin, 1992). À partir de résultats de travaux en didactique des sciences et des mathématiques (Dupin 1995; Sfard 1991), nous élaborons des situations didactiques sur la base d’éléments de modélisation, en cherchant à articuler deux façons de concevoir l’objet (« procédurale » et « structurale ») de façon à trouver une stratégie de résolution plus sûre, plus économique et réutilisable. En particulier, nous avons cherché à situer la notion dans différents domaines mathématiques où elle est applicable : arithmétique, géométrique, algébrique et analytique. La séquence vise à développer des liens entre différents cadres mathématiques, et entre différentes représentations de la TL dans les différents registres mathématiques, en s’inspirant notamment dans cette démarche du développement historique de la notion. De plus, la séquence didactique vise à maintenir un équilibre entre le côté applicable des tâches à la pratique professionnelle visée, et le côté théorique propice à la structuration des concepts. L’étude a été conduite avec des étudiants chiliens en formation au génie, dans le premier cours d’algèbre linéaire. Nous avons mené une analyse a priori détaillée afin de renforcer la robustesse de la séquence et de préparer à l’analyse des données. Par l’analyse des réponses au questionnaire d’entrée, des productions des équipes et des commentaires reçus en entrevus, nous avons pu identifier les compétences mathématiques et les niveaux d’explicitation (Caron, 2004) mis à contribution dans l’utilisation de la TL. Les résultats obtenus montrent l’émergence du rôle unificateur de la TL, même chez ceux dont les habitudes en résolution de problèmes mathématiques sont marquées par une orientation procédurale, tant dans l’apprentissage que dans l’enseignement. La séquence didactique a montré son efficacité pour la construction progressive chez les étudiants de la notion de transformation linéaire (TL), avec le sens et les propriétés qui lui sont propres : la TL apparaît ainsi comme un moyen économique de résoudre des problèmes extérieurs à l’algèbre linéaire, ce qui permet aux étudiants d’en abstraire les propriétés sous-jacentes. Par ailleurs, nous avons pu observer que certains concepts enseignés auparavant peuvent agir comme obstacles à l’unification visée. Cela peut ramener les étudiants à leur point de départ, et le rôle de la TL se résume dans ces conditions à révéler des connaissances partielles, plutôt qu’à guider la résolution.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Thèse réalisée en cotutelle entre l'Université de Montréal et l'Université de Technologie de Troyes

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Cette thèse présente une étude dans divers domaines de l'informatique théorique de modèles de calculs combinant automates finis et contraintes arithmétiques. Nous nous intéressons aux questions de décidabilité, d'expressivité et de clôture, tout en ouvrant l'étude à la complexité, la logique, l'algèbre et aux applications. Cette étude est présentée au travers de quatre articles de recherche. Le premier article, Affine Parikh Automata, poursuit l'étude de Klaedtke et Ruess des automates de Parikh et en définit des généralisations et restrictions. L'automate de Parikh est un point de départ de cette thèse; nous montrons que ce modèle de calcul est équivalent à l'automate contraint que nous définissons comme un automate qui n'accepte un mot que si le nombre de fois que chaque transition est empruntée répond à une contrainte arithmétique. Ce modèle est naturellement étendu à l'automate de Parikh affine qui effectue une opération affine sur un ensemble de registres lors du franchissement d'une transition. Nous étudions aussi l'automate de Parikh sur lettres: un automate qui n'accepte un mot que si le nombre de fois que chaque lettre y apparaît répond à une contrainte arithmétique. Le deuxième article, Bounded Parikh Automata, étudie les langages bornés des automates de Parikh. Un langage est borné s'il existe des mots w_1, w_2, ..., w_k tels que chaque mot du langage peut s'écrire w_1...w_1w_2...w_2...w_k...w_k. Ces langages sont importants dans des domaines applicatifs et présentent usuellement de bonnes propriétés théoriques. Nous montrons que dans le contexte des langages bornés, le déterminisme n'influence pas l'expressivité des automates de Parikh. Le troisième article, Unambiguous Constrained Automata, introduit les automates contraints non ambigus, c'est-à-dire pour lesquels il n'existe qu'un chemin acceptant par mot reconnu par l'automate. Nous montrons qu'il s'agit d'un modèle combinant une meilleure expressivité et de meilleures propriétés de clôture que l'automate contraint déterministe. Le problème de déterminer si le langage d'un automate contraint non ambigu est régulier est montré décidable. Le quatrième article, Algebra and Complexity Meet Contrained Automata, présente une étude des représentations algébriques qu'admettent les automates contraints et les automates de Parikh affines. Nous déduisons de ces caractérisations des résultats d'expressivité et de complexité. Nous montrons aussi que certaines hypothèses classiques en complexité computationelle sont reliées à des résultats de séparation et de non clôture dans les automates de Parikh affines. La thèse est conclue par une ouverture à un possible approfondissement, au travers d'un certain nombre de problèmes ouverts.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Cette thèse traite de la supposée perte de culture politique et citoyenne que connaît le Chili de la période post-dictature. Bien qu’une telle perte soit généralement considérée comme une évidence, nous évaluons dans quelle mesure celle-ci est bien réelle en nous intéressant aux processus d’apprentissage du comportement civique de la plus jeune génération politique du pays qui a aujourd’hui atteint la vingtaine. Étant donné que les membres de cette génération étaient soit au stade de l’enfance, soit pas même nés au moment de la transition démocratique de 1990, ils ont habituellement pris connaissance des événements de répression étatique et de réconciliation démocratique par l’intermédiaire de leurs aînés. Ce phénomène est encore plus marqué dans les régions rurales du sud du pays où la majeure partie de ce que les jeunes générations savent du passé conflictuel de leur pays, incluant le colonialisme, le socialisme révolutionnaire et le fascisme, n’a pas été transmis par la communication verbale ou volontaire, mais indirectement via les habitudes et préférences culturelles qui ne manquent pas d’influencer les décisions politiques. À travers l’analyse des mécanismes de transmission inter-générationnelle de diverses perspectives d’un passé contesté, notre travail explore les processus par lesquels, à l’échelle micro, certains types de comportement politique sont diffusés au sein des familles et de petits réseaux communautaires. Ces derniers se situent souvent en tension avec les connaissances transmises dans les domaines publics, comme les écoles et certaines associations civiques. De telles tensions soulèvent d’importantes questions au sujet des inégalités de statut des membres de la communauté nationale, en particulier à une époque néolibérale où la réorganisation du fonctionnement des services sociaux et du contrôle des ressources naturelles a transformé les relations entre le monde rural pauvre et la société dominante provenant des centres urbains. Au sein de la jeune génération politique du Chili, dans quelle mesure ces perspectives situées concernant un passé pour le moins contesté, ainsi que leurs impacts sur la distribution actuelle du pouvoir dans le pays façonnent-ils des identités politiques en émergence ? Nous abordons cette question à l’aide d’une analyse ethnographique des moyens auxquels les jeunes recourent pour acquérir et exprimer des connaissances au sujet de l’histoire et de son influence latente dans la vie civique actuelle. Nos données proviennent de plus de deux années de terrain anthropologique réalisées dans trois localités du sud rural ayant été touchées par des interventions industrielles dans les rivières avoisinantes. L'une d'entre elles a été contaminée par une usine de pâte à papier tandis que les autres doivent composer avec des projets de barrage hydroélectrique qui détourneront plusieurs rivières. Ces activités industrielles composent la toile de fond pour non seulement évaluer les identités politiques, émergentes mais aussi pour identifier ce que l’apprentissage de comportement politique révèle à propos de la citoyenneté au Chili à l’heure actuelle.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

"L’auteur présente une analyse générale de l’évolution historique et des développements récents du régime des droits d’auteur au Canada. Avec le développement des nouvelles technologies de l’information, et plus spécifiquement de l’Internet, le régime canadien des droits d’auteur nécessiterait d’importantes réformes. L’auteur déplore toutefois les modifications récentes issues de la loi C-60. En effet, selon lui, ces changements ne correspondent pas au régime international proposé par l’Organisation Mondiale de Propriété Intellectuelle. En fait, ceux-ci cadrent beaucoup plus avec la perspective américaine de protection limitative des droits d’auteur. Michael Geist trace d’abord l’historique du développement du régime de protection des droits d’auteur au Canada. Il souligne notamment les modifications législatives importantes de la fin des années 1980 et 1990 qui visaient à renforcer les règles de reconnaissance et de protection des droits que les auteurs canadiens possèdent sur leurs œuvres. Parallèlement, à ces modifications législatives, la Cour Suprême du Canada s’est aussi prononcée sur la question des droits d’auteur en interprétant limitativement la portée de ce régime, facilitant ainsi l’accès des œuvres artistiques au domaine public. L’auteur souligne les divergences et les contradictions entre la conception législative et celle jurisprudentielle de la fonction du régime canadien des droits d’auteur. Le législateur canadien a récemment proposé une nouvelle modification du régime de droits d’auteurs qui consisterait en l’extension des délais obligatoire avant qu’une œuvre couverte par le régime ne soit incluse dans le domaine public. Michael Geist s’oppose à une telle modification et soutient qu’elle entraînerait de nombreuses conséquences négatives pour les auteurs et les artistes canadiens. En effet, cette modification limiterait l’accès des auteurs aux oeuvres antérieures, elle entraverait les opportunités et les capacités commerciales des œuvres canadiennes et restreindrait les domaines de recherche académique. L’auteur aborde par la suite la problématique reliée aux ""Mesures de Protection Techniques"" et à la législation qui les encadre. En analysant les problèmes causés par ces mesures aux États-Unis, il présente leurs effets nuisibles pour les domaines fondamentaux de la liberté de parole et de la recherche académique. Les réformes possibles du régime canadien des droits d’auteur se situent dans une perspective plus ouverte du régime de protection et de promotion des œuvres canadiennes. Ces réformes auraient l’avantage de promouvoir et de protéger les œuvres canadiennes tout en évitant les problèmes causés par les mesures trop limitatives. À ce sujet, l’auteur propose l’établissement d’une bibliothèque digitale nationale, l’abrogation des droits d’auteur de la couronne et un nouveau régime permettant l’utilisation du matériel radiodiffusé de la Société Radio-Canada."

Relevância:

10.00% 10.00%

Publicador:

Resumo:

"Herbert Burket trace l’évolution des concepts reliés au ""droit de l’Internet"" dans le cadre du droit de l’Union Européenne. Initialement, ce domaine du droit était perçu comme une nouvelle discipline normative. Or, l’auteur soutient que le ""droit de l’Internet"" n’est pas un domaine normatif distinct, mais correspond aux domaines traditionnels auxquels il a été progressivement intégré. Le ""droit de l’Internet"" a amélioré notre compréhension du processus général d’évolution du droit. L’auteur souligne, entre autres, comment le législateur européen a réagi par diverses législations aux nouveaux impératifs technologiques. De plus, ce domaine offre une nouvelle perspective pour l’analyse de l’évolution des normes face aux innovations technologiques. Les tribunaux, les législateurs et les parties privées sont autant d’acteurs qui interviennent à différents moments et sur différents aspects du processus d’évolution du droit. Enfin, on s’attendait à ce que le droit de l’Internet conduise à la mondialisation des normes, à l’autorégulation des acteurs et à une architecture structurelle normative ouverte. L’auteur constate que la mondialisation des normes ne semble pas s’être réalisée. L’autorégulation, dans le domaine de l’Internet, fait référence aux normes de comportement établies par des acteurs privés et mixtes. Enfin, le concept d’architecture structurelle normative réfère au fait que les créateurs d’un système technologique imposent involontairement certaines règles aux utilisateurs, en dépit de l’affirmation qu’un tel système technologique est normativement neutre. L’auteur soutient que ces attentes, bien qu’elles soient toujours présentes au sein de l’activité normative, n’ont plus la même signification qu’au moment de leur formulation originale. Les concepts traditionnels de période normative, de juridiction, d’acteurs et de procédure ont aussi évolué parallèlement au développement du ""droit de l’Internet"", autant dans le cadre de l’environnement normatif de l’Union Européenne que dans celui du droit international en général. L’évolution de ces concepts modifie le processus de création du droit, ainsi que le rôle et les fonctions des intervenants impliqués dans ce processus.L’auteur conclut en soulignant que le concept même de droit a évolué en perdant ses représentations symboliques traditionnelles grâce au développement de l’accès généralisé à l’information, à l’évolution des technologies de l’information et à leur impact culturel."