1000 resultados para théorie de la double hérédité
Resumo:
Abstract : The major objective of our study is to investigate DNA damage induced by soft X-rays (1.5 keV) and low-energy electrons (˂ 30 eV) using a novel irradiation system created by Prof. Sanche’s group. Thin films of double-stranded DNA are deposited on either glass and tantalum substrates and irradiated under standard temperature and pressure surrounded by a N[subscript 2] environment. Base release (cytosine, thymine, adenine and guanine) and base modifications (8-oxo-7,8-dihydro -2’-deoxyguanosine, 5-hydroxymethyl-2’-deoxyuridine, 5-formyl-2’-deoxyuridine, 5,6-dihydrothymidine and 5,6-dihydro-2’-deoxy uridine) are analyzed and quantified by LC-MS/MS. Our results reveal larger damage yields in the sample deposited on tantalum than those on glass. This can be explained by an enhancement of damage due to low-energy electrons, which are emitted from the metal substrate. From a comparison of the yield of products, base release is the major type of damage especially for purine bases, which are 3-fold greater than base modifications. A proposed pathway leading to base release involves the formation of a transient negative ion (TNI) followed by dissociative electron attachment (DEA) at the N-g lycosidic bond. On the other hand, base modification products consist of two major types of chemical modifications, which include thymine methyl oxidation products that likely arises from DEA from the methyl group of thymine, and 5,6-dihydropyrimidine that can involve the initial addition of electrons, H atoms, or hydride ions to the 5,6-pyrimidine double bond.
Resumo:
We say that a polygon inscribed in the circle is asymmetric if it contains no two antipodal points being the endpoints of a diameter. Given n diameters of a circle and a positive integer k < n, this paper addresses the problem of computing a maximum area asymmetric k-gon having as vertices k < n endpoints of the given diameters. The study of this type of polygons is motivated by ethnomusiciological applications.
Resumo:
Notre recherche porte sur une approche pédagogique qui nous a amenée à élaborer un matériel spécifique rejoignant l'image mentale auditive et l'image mentale visuelle chez les élèves de 2e secondaire. L'objectif de cette recherche est de vérifier si cette pédagogie permettrait à tous les élèves de réussir, si elle rendrait les résultats des groupes d'élèves plus homogènes et s'il serait possible grâce à elle d'atteindre un haut degré de satisfaction des élèves à l'égard du cours d'économie familiale. L'expérimentation a été réalisée auprès de quatre groupes, deux groupes expérimentaux et deux groupes témoins. Pour les groupes témoins, l'enseignement traditionnel ou exposé collectif a été utilisé. Pour les groupes expérimentaux, un enseignement favorisant la gestion mentale basée sur la théorie de La Garanderie avec un nouveau document pédagogique appuyé de matériel spécifique a été utilisé. Cette approche pédagogique s'appuie également sur la théorie de Bloom sur l'évaluation formative et sur l'évaluation sommative. Les analyses statistiques n'ont pas montré de différence significative entre les performances moyennes de chacun des groupes, sauf pour le groupe expérimental fort. Toutefois, nous pouvons remarquer une plus grande homogénéité chez les groupes expérimentaux et une plus grande satisfaction des élèves.
Resumo:
Depuis que la haute énantiopureté est nécessaire dans l’industrie pharmaceutique, les études visant à découvrir les mécanismes pour l’hydrogénation énantiosélective de cétones ou céto-esters sur les surfaces, et à rechercher de nouveaux et plus performants catalyseurs asymétriques, sont d’une grande importance. La microscopie à effet tunnel (STM), la spectroscopie infrarouge de réflexion-absorption, la spectroscopie de désorption à température programmée et la spectrométrie de photoélectrons induits par rayons X sont des méthodes performantes facilitant la compréhension des mécanismes de réaction. En plus de nous permettre de comprendre les mécanismes réactionnels, les études peuvent fournir des informations sur la dynamique des réactions en catalyse hétérogène ainsi que sur le développement de la théorie de la fonctionnelle de la densité (DFT) afin de calculer des interactions faibles dans les processus de surface. D’autres parts, les calculs DFT fournissent une aide essentielle à l’interprétation des données de STM et spectroscopie de surface. Dans cette thèse, certains cétones et céto-esters sur la surface de platine sont étudiées par les techniques sophistiquées mentionnées ci-dessus. Mes études démontrent que la combinaison de l’utilisation de la spectroscopie de routine, des nanotechnologies et de nombreux calculs élaborés, est une méthode efficace pour étudier les réactions à la surface car ces techniques explorent les différents aspects de la surface ainsi que s’entraident mutuellement lors de certaines interprétations.
Resumo:
Deux objectifs seront poursuivis par la présente recherche. Le premier sera de déterminer le niveau de conceptualisation du langage écrit des enfants de la maternelle. Sur la base de ces évaluations nous poursuivrons le second objectif, soit de déterminer si une intervention particulière peut influencer le développement des habiletés cognitives et métacognitives nécessaires à la compréhension de notre système d'écriture. Les résultats nous permettront de formuler des recommandations quant à l'attitude pédagogique à privilégier avant d'entreprendre l'enseignement formel pour faciliter d'emblée l'entrée dans l'écrit. Par le biais de cette recherche, nous tenterons de répondre à plusieurs interrogations. Lorsque l'enfant entre en première armée, quelles connaissances a-t-il du langage écrit et du fonctionnement de notre système d'écriture? Que peut faire l'enseignante ou l'enseignant de 1re année pour améliorer l'accès au code écrit de notre langue? Comment doit-elle, comment doit-il ajuster ses interventions sans nuire au travail intellectuel déjà entrepris par l'enfant? L'approche théorique d'Emilia Ferreiro ainsi que les travaux de Downing et Fijalkow serviront de fondement à notre étude. Grâce à l'épreuve d'écriture inventée qui a donné lieu à la psychogenèse de l'écriture élaborée par Ferreiro, nous pourrons analyser les productions écrites des enfants. Les protocoles ne seront pas mesurés en regard de la réussite ou de l'échec, mais selon le niveau atteint: «les réponses étant seulement la manifestation externe de mécanismes internes d'organisation» (Ferreiro, 1987, p. 16). L'épreuve du langage technique de la lecture-écriture issue de la théorie de la clarté cognitive élaborée par Downing et Fijalkow viendra compléter nos informations en permettant de situer le degré de clarté cognitive des enfants.
Resumo:
Les jeux de policiers et voleurs sont étudiés depuis une trentaine d’années en informatique et en mathématiques. Comme dans les jeux de poursuite en général, des poursuivants (les policiers) cherchent à capturer des évadés (les voleurs), cependant ici les joueurs agissent tour à tour et sont contraints de se déplacer sur une structure discrète. On suppose toujours que les joueurs connaissent les positions exactes de leurs opposants, autrement dit le jeu se déroule à information parfaite. La première définition d’un jeu de policiers-voleurs remonte à celle de Nowakowski et Winkler [39] et, indépendamment, Quilliot [46]. Cette première définition présente un jeu opposant un seul policier et un seul voleur avec des contraintes sur leurs vitesses de déplacement. Des extensions furent graduellement proposées telles que l’ajout de policiers et l’augmentation des vitesses de mouvement. En 2014, Bonato et MacGillivray [6] proposèrent une généralisation des jeux de policiers-voleurs pour permettre l’étude de ceux-ci dans leur globalité. Cependant, leur modèle ne couvre aucunement les jeux possédant des composantes stochastiques tels que ceux dans lesquels les voleurs peuvent bouger de manière aléatoire. Dans ce mémoire est donc présenté un nouveau modèle incluant des aspects stochastiques. En second lieu, on présente dans ce mémoire une application concrète de l’utilisation de ces jeux sous la forme d’une méthode de résolution d’un problème provenant de la théorie de la recherche. Alors que les jeux de policiers et voleurs utilisent l’hypothèse de l’information parfaite, les problèmes de recherches ne peuvent faire cette supposition. Il appert cependant que le jeu de policiers et voleurs peut être analysé comme une relaxation de contraintes d’un problème de recherche. Ce nouvel angle de vue est exploité pour la conception d’une borne supérieure sur la fonction objectif d’un problème de recherche pouvant être mise à contribution dans une méthode dite de branch and bound.
Resumo:
We develop a framework for proving approximation limits of polynomial size linear programs (LPs) from lower bounds on the nonnegative ranks of suitably defined matrices. This framework yields unconditional impossibility results that are applicable to any LP as opposed to only programs generated by hierarchies. Using our framework, we prove that O(n1/2-ε)-approximations for CLIQUE require LPs of size 2nΩ(ε). This lower bound applies to LPs using a certain encoding of CLIQUE as a linear optimization problem. Moreover, we establish a similar result for approximations of semidefinite programs by LPs. Our main technical ingredient is a quantitative improvement of Razborov's [38] rectangle corruption lemma for the high error regime, which gives strong lower bounds on the nonnegative rank of shifts of the unique disjointness matrix.
Resumo:
Ce mémoire de maîtrise traite de la théorie de la ruine, et plus spécialement des modèles actuariels avec surplus dans lesquels sont versés des dividendes. Nous étudions en détail un modèle appelé modèle gamma-omega, qui permet de jouer sur les moments de paiement de dividendes ainsi que sur une ruine non-standard de la compagnie. Plusieurs extensions de la littérature sont faites, motivées par des considérations liées à la solvabilité. La première consiste à adapter des résultats d’un article de 2011 à un nouveau modèle modifié grâce à l’ajout d’une contrainte de solvabilité. La seconde, plus conséquente, consiste à démontrer l’optimalité d’une stratégie de barrière pour le paiement des dividendes dans le modèle gamma-omega. La troisième concerne l’adaptation d’un théorème de 2003 sur l’optimalité des barrières en cas de contrainte de solvabilité, qui n’était pas démontré dans le cas des dividendes périodiques. Nous donnons aussi les résultats analogues à l’article de 2011 en cas de barrière sous la contrainte de solvabilité. Enfin, la dernière concerne deux différentes approches à adopter en cas de passage sous le seuil de ruine. Une liquidation forcée du surplus est mise en place dans un premier cas, en parallèle d’une liquidation à la première opportunité en cas de mauvaises prévisions de dividendes. Un processus d’injection de capital est expérimenté dans le deuxième cas. Nous étudions l’impact de ces solutions sur le montant des dividendes espérés. Des illustrations numériques sont proposées pour chaque section, lorsque cela s’avère pertinent.
Resumo:
Une taxonomie révisée et une connaissance des limites d’espèces demeurent toujours importantes dans les points chauds en biodiversité comme les Antilles où de nombreuses espèces endémiques sont retrouvées. Des limites d’espèces divergentes impliquent un différent nombre d’espèces retrouvées dans un écosystème, ce qui peut exercer une influence sur les décisions prises face aux enjeux de conservation. Les genres Gesneria et Rhytidophyllum qui forment les principaux représentants de la famille des Gesneriaceae dans les Antilles comprennent plusieurs taxons aux limites d’espèces ambigües et quelques espèces qui ont des sous-espèces reconnues. C’est le cas de Gesneria viridiflora (Decne.) Kuntze qui comprend quatre sous-espèces géographiquement isolées et qui présentent des caractères végétatifs et reproducteurs similaires et variables. Une délimitation d’espèces approfondie de ce complexe d’espèce est effectuée ici à partir d’une approche de taxonomie intégrative considérant des données morphologiques, génétiques et bioclimatiques. Les données morphologiques quantitatives et qualitatives obtenues à partir de spécimens d’herbier sont utilisées pour délimiter des groupes morphologiques à l’aide d’une analyse en coordonnées principales. Ces groupes sont ensuite testés à l’aide de séquences d’ADN de quatre régions nucléaires en utilisant une méthode bayesienne basée sur la théorie de la coalescence. Finalement, les occurrences et les valeurs de variables de température et de précipitation qui y prévalent sont utilisées dans une analyse en composantes principales bioclimatique pour comparer les groupes délimités morphologiquement et génétiquement. Les résultats de l’analyse morphologique multivariée supportent la distinction entre les groupes formés par les sous-espèces actuellement reconnues de G. viridiflora. Les résultats, incluant des données génétiques, suggèrent une distinction jusqu’ici insoupçonnée des populations du Massif de la Hotte au sud-ouest d’Haïti qui sont génétiquement plus rapprochées des populations de Cuba que de celles d’Hispaniola. Bioclimatiquement, les groupes délimités par les analyses morphologiques et génétiques sont distincts. L’approche de taxonomie intégrative a permis de distinguer cinq espèces distinctes plutôt que les quatre sous-espèces acceptées jusqu’à aujourd’hui. Ces espèces sont : G. acrochordonanthe, G. quisqueyana, G. sintenisii, G. sylvicola et G. viridiflora. Une carte de distribution géographique, un tableau de la nouvelle taxonomie applicable et une clé d’identification des espèces sont présentés. La nouvelle taxonomie déterminée dans cette étude démontre un endémisme insoupçonné dans plusieurs régions du point chaud en biodiversité des Antilles et souligne l’importance d’investiguer les limites d’espèces dans les groupes diversifiés comprenant des taxons aux limites d’espèces incomprises.
Resumo:
Dans un contexte où l’énergie représente un enjeu majeur pour les pays et organisations à économies émergentes et développées, la recherche de nouvelles sources renouvelables et la démocratisation des vecteurs énergétiques permettant l’approvisionnement mondial de façon durable constitue un devoir pour la communauté scientifique internationale. D’ailleurs, il serait essentiel que les nombreuses disciplines de la chimie concertent leurs efforts. Plus particulièrement, la croissance de la recherche en chimie de coordination orientée vers la photosynthèse artificielle ainsi que le développement de matériaux fonctionnels démontre l’importance indéniable de ce champ de recherche. Ce travail présente dans un premier temps l’étude des différentes voies de synthèse d’hydroxyamidines, un ligand chélatant aux propriétés de coordination prometteuses ne recevant que très peu d’attention de la part de la communauté scientifique. Dans un deuxième temps, nous présenterons le développement d’une stratégie d’assemblage de leurs complexes supramoléculaires impliquant des métaux de transition abondants et peu dispendieux de la première rangée. Dans un troisième temps, il sera question de l’investigation de leurs propriétés photophysiques et électrochimiques à des fins d’applications au sein de matériaux fonctionnels. Pour ce faire, les différentes voies de synthèse des hydroxyamidines et de leurs amidines correspondantes qui ont précédemment été étudiées par les membres du groupe seront tout d’abord perfectionnées, puis investiguées afin de déterminer leur versatilité. Ensuite, les propriétés de complexation des amox résultantes comportant des motifs sélectionnés seront déterminées pour enfin étudier les propriétés photophysiques et électrochimiques d’une série de complexes de métaux de transition de la première rangée. En somme, plusieurs designs qu’offrent les amox et bis-amox sont étudiés et les propriétés des architectures résultantes de leur auto-assemblage sont déterminées.
Resumo:
Cette thèse présente une théorie de la fonction formelle et de la structure des phrases dans la musique contemporaine, théorie qui peut être utilisée aussi bien comme outil analytique que pour créer de nouvelles œuvres. Deux concepts théoriques actuels aident à clarifier la structure des phrases : les projections temporelles de Christopher Hasty et la théorie des fonctions formelles de William Caplin, qui inclut le concept de l’organisation formelle soudée versus lâche (tight-knit vs. loose). Les projections temporelles sont perceptibles grâce à l’accent mis sur les paramètres secondaires, comme le style du jeu, l’articulation et le timbre. Des sections avec une organisation formelle soudée ont des projections temporelles claires, qui sont créées par la juxtaposition des motifs distincts, généralement sous la forme d'une idée de base en deux parties. Ces projections organisent la musique en phrases de présentation, en phrases de continuité et finalement, à des moments formels charnières, en phrases cadentielles. Les sections pourvues d’une organisation plus lâche tendent à présenter des projections et mouvements harmoniques moins clairs et moins d’uniformité motivique. La structure des phrases de trois pièces tardives pour instrument soliste de Pierre Boulez est analysée : Anthèmes I pour violon (1991-1992) et deux pièces pour piano, Incises (2001) et une page d’éphéméride (2005). Les idées proposées dans le présent document font suite à une analyse de ces œuvres et ont eu une forte influence sur mes propres compositions, en particulier Lucretia Overture pour orchestre et 4 Impromptus pour flûte, saxophone soprano et piano, qui sont également analysés en détail. Plusieurs techniques de composition supplémentaires peuvent être discernés dans ces deux œuvres, y compris l'utilisation de séquence mélodiques pour contrôler le rythme harmonique; des passages composés de plusieurs couches musicales chacun avec un structure de phrase distinct; et le relâchement de l'organisation formelle de matériels récurrents. Enfin, la composition de plusieurs autres travaux antérieurs a donné lieu à des techniques utilisées dans ces deux œuvres et ils sont brièvement abordés dans la section finale.
Resumo:
Cette thèse propose l’émergence d’une poésie de l’entre deux dans la littérature expérimentale, en suivant ses développements du milieu du vingtième siècle jusqu'au début du vingt-et-unième. Cette notion d’entre-deux poétique se fonde sur une théorie du neutre (Barthes, Blanchot) comme ce qui se situe au delà ou entre l'opposition et la médiation. Le premier chapitre retrace le concept de monotonie dans la théorie esthétique depuis la période romantique où il est vu comme l'antithèse de la variabilité ou tension poétique, jusqu’à l’émergence de l’art conceptuel au vingtième siècle où il se déploie sans interruption. Ce chapitre examine alors la relation de la monotonie à la mélancolie à travers l’analyse de « The Anatomy of Monotony », poème de Wallace Stevens tiré du recueil Harmonium et l’œuvre poétique alphabet de Inger Christensen. Le deuxième chapitre aborde la réalisation d’une poésie de l’entre-deux à travers une analyse de quatre œuvres poétiques qui revisitent l’usage de l’index du livre paratextuel: l’index au long poème “A” de Louis Zukofsky, « Index to Shelley's Death » d’Alan Halsey qui apparait à la fin de l’oeuvre The Text of Shelley's Death, Cinema of the Present de Lisa Robertson, et l’oeuvre multimédia Via de Carolyn Bergvall. Le troisième chapitre retrace la politique de neutralité dans la théorie de la traduction. Face à la logique oppositionnelle de l’original contre la traduction, il propose hypothétiquement la réalisation d’une troisième texte ou « l’entre-deux », qui sert aussi à perturber les récits familiers de l’appropriation, l’absorption et l’assimilation qui effacent la différence du sujet de l’écrit. Il examine l’oeuvre hybride Secession with Insecession de Chus Pato et Erin Moure comme un exemple de poésie de l’entre-deux. A la fois pour Maurice Blanchot et Roland Barthes, le neutre représente un troisième terme potentiel qui défie le paradigme de la pensée oppositionnelle. Pour Blanchot, le neutre est la différence amenée au point de l’indifférence et de l’opacité de la transparence tandis que le désire de Barthes pour le neutre est une utopie lyrique qui se situe au-delà des contraintes de but et de marquage. La conclusion examine comment le neutre correspond au conditions de liberté gouvernant le principe de créativité de la poésie comme l’acte de faire sans intention ni raison.
Resumo:
La description des termes dans les ressources terminologiques traditionnelles se limite à certaines informations, comme le terme (principalement nominal), sa définition et son équivalent dans une langue étrangère. Cette description donne rarement d’autres informations qui peuvent être très utiles pour l’utilisateur, surtout s’il consulte les ressources dans le but d’approfondir ses connaissances dans un domaine de spécialité, maitriser la rédaction professionnelle ou trouver des contextes où le terme recherché est réalisé. Les informations pouvant être utiles dans ce sens comprennent la description de la structure actancielle des termes, des contextes provenant de sources authentiques et l’inclusion d’autres parties du discours comme les verbes. Les verbes et les noms déverbaux, ou les unités terminologiques prédicatives (UTP), souvent ignorés par la terminologie classique, revêtent une grande importance lorsqu’il s’agit d’exprimer une action, un processus ou un évènement. Or, la description de ces unités nécessite un modèle de description terminologique qui rend compte de leurs particularités. Un certain nombre de terminologues (Condamines 1993, Mathieu-Colas 2002, Gross et Mathieu-Colas 2001 et L’Homme 2012, 2015) ont d’ailleurs proposé des modèles de description basés sur différents cadres théoriques. Notre recherche consiste à proposer une méthodologie de description terminologique des UTP de la langue arabe, notamment l’arabe standard moderne (ASM), selon la théorie de la Sémantique des cadres (Frame Semantics) de Fillmore (1976, 1977, 1982, 1985) et son application, le projet FrameNet (Ruppenhofer et al. 2010). Le domaine de spécialité qui nous intéresse est l’informatique. Dans notre recherche, nous nous appuyons sur un corpus recueilli du web et nous nous inspirons d’une ressource terminologique existante, le DiCoInfo (L’Homme 2008), pour compiler notre propre ressource. Nos objectifs se résument comme suit. Premièrement, nous souhaitons jeter les premières bases d’une version en ASM de cette ressource. Cette version a ses propres particularités : 1) nous visons des unités bien spécifiques, à savoir les UTP verbales et déverbales; 2) la méthodologie développée pour la compilation du DiCoInfo original devra être adaptée pour prendre en compte une langue sémitique. Par la suite, nous souhaitons créer une version en cadres de cette ressource, où nous regroupons les UTP dans des cadres sémantiques, en nous inspirant du modèle de FrameNet. À cette ressource, nous ajoutons les UTP anglaises et françaises, puisque cette partie du travail a une portée multilingue. La méthodologie consiste à extraire automatiquement les unités terminologiques verbales et nominales (UTV et UTN), comme Ham~ala (حمل) (télécharger) et taHmiyl (تحميل) (téléchargement). Pour ce faire, nous avons adapté un extracteur automatique existant, TermoStat (Drouin 2004). Ensuite, à l’aide des critères de validation terminologique (L’Homme 2004), nous validons le statut terminologique d’une partie des candidats. Après la validation, nous procédons à la création de fiches terminologiques, à l’aide d’un éditeur XML, pour chaque UTV et UTN retenue. Ces fiches comprennent certains éléments comme la structure actancielle des UTP et jusqu’à vingt contextes annotés. La dernière étape consiste à créer des cadres sémantiques à partir des UTP de l’ASM. Nous associons également des UTP anglaises et françaises en fonction des cadres créés. Cette association a mené à la création d’une ressource terminologique appelée « DiCoInfo : A Framed Version ». Dans cette ressource, les UTP qui partagent les mêmes propriétés sémantiques et structures actancielles sont regroupées dans des cadres sémantiques. Par exemple, le cadre sémantique Product_development regroupe des UTP comme Taw~ara (طور) (développer), to develop et développer. À la suite de ces étapes, nous avons obtenu un total de 106 UTP ASM compilées dans la version en ASM du DiCoInfo et 57 cadres sémantiques associés à ces unités dans la version en cadres du DiCoInfo. Notre recherche montre que l’ASM peut être décrite avec la méthodologie que nous avons mise au point.
Resumo:
Cette thèse tente de comprendre l’impact des restructurations des entreprises multinationales sur les stratégies syndicales. Les acteurs syndicaux locaux sont-ils déterminés par l’appartenance à des régimes nationaux et à des contingences organisationnelles ou peuvent-ils influencer des décisions objectives comme les restructurations ? Cette recherche s’insère dans une problématique large qui fait la jonction entre la mondialisation économique sur une base continentale, la réorganisation productive des entreprises multinationales et l’action syndicale. Au plan théorique, nous confrontons trois grandes approches analytiques, à savoir : le néo-institutionnalisme et les structures d’opportunités ; l’économie politique critique et la question du pouvoir syndical ; la géographie économique critique mettant de l’avant les contingences, l’encastrement et l’espace concurrentiel. Sur la base de ces trois familles, nous présentons un modèle d’analyse multidisciplinaire. Au plan méthodologique, cette thèse est structurée autour de quatre études de cas locales qui ont subi des menaces de restructurations. Cette collecte a été effectuée dans deux pays (la France et le Canada) et dans un secteur particulier (les équipementiers automobiles). Trois sources qualitatives forment le cœur empirique de cette thèse : des statistiques descriptives, des documents de sources secondaires et des entretiens semi-dirigés (44), principalement avec des acteurs syndicaux. L’analyse intra et inter régime national éclaire plusieurs aspects de la question des stratégies syndicales en contexte de restructurations. Les principales contributions de cette thèse touchent : 1. l’impact des facteurs relationnels et des ressources de pouvoir développées par les syndicats locaux sur les structures d’opportunités institutionnelles; 2. l’importance des aspects « cognitifs » et d’envisager le pouvoir de manière multi-niveaux; 3. l’importance de l’encastrement social et des dynamiques relationnelles entre syndicats et patronats; 4. l’influence de la concurrence internationale/nationale/régionale/locale dans le secteur des équipementiers automobiles; et 5. l’importance des arbitrages et des relations entre les acteurs de l’entreprise par rapport à la théorie de la contingence pour comprendre les marges structurelles des syndicats locaux. Notre recherche invite les acteurs sociaux à repenser leur action dans le cadre des restructurations. En particulier, les syndicats locaux se doivent d’explorer de nouveaux répertoires stratégiques pour répondre aux nombreux défis que posent le changement économique et les restructurations.
Resumo:
Les technologies numériques changent-elles vraiment la littérature? Peut-on parler d'une littérature numérique? Y a-t-il opposition entre la littérature papier et la littérature numérique? D'une part, on pourrait dire qu'il n'existe aucune opposition entre ces deux formes de littérature car, dans les faits, il n'y a que des pratiques qui s'inscrivent toujours dans une continuité. D'autre part, on pourrait affirmer qu'au contraire il y a des différences fondamentales dans les pratiques d'écritures, dans les modèles de diffusion et de réception, dans les formats, dans les supports, etc. Cet article explore ces deux perspectives.