999 resultados para Linguistique informatique


Relevância:

20.00% 20.00%

Publicador:

Resumo:

'Theory', 'hypothesis', 'model' and 'method' in linguistics: Semasiological and onomasiological perspectives The subject of this thesis is the use of generic scientific terms, in particular the four terms 'theory', 'hypothesis', 'model' and 'method', in linguistic research articles written in French and in Finnish. The thesis examines the types of scientific constructs to which these terms are applied, and seeks to explain the variation in the use of each term. A second objective of the thesis is to analyze the relationships among these terms, and the factors determining the choices made by writers. With its focus on the authentic use of generic scientific terms, the thesis complements the normative and theoretical descriptions of these terms in Science Studies and offers new information on actual writing practices. This thesis adheres to functional and usage-based linguistics, drawing its theoretical background from cognitive linguistics and from functional approaches to terminology. The research material consisted of 120 research articles (856 569 words), representing different domains of linguistics and written in French or Finnish (60 articles in each language). The articles were extracted from peer-reviewed scientific journals and were published between 2000 and 2010. The use of generic scientific terms in the material has been examined from semasiological and onomasiological perspectives. In the first stage, different usages related to each of the four central terms were analyzed. In the second stage, the analysis was extended to other terms and expressions, such as 'theoretical framework', 'approach' and ‘claim’, which were used to name scientific constructs similar to the four terms analyzed in the first stage. Finally, in order to account for the writer’s choice among the terms, a mixed methods approach was adopted, based on the results of a previously conducted questionnaire concerning the differences between these terms as experienced by linguists themselves. Despite the general ideal that scientific terms should be carefully defined, the study shows that the use of these central terms is not without ambiguity. What is understood by these terms may vary according to different conceptual and stylistic factors as well as epistemic and disciplinary traditions. In addition to their polysemy, the semantic potentials of these terms are in part overlapping. In most cases, the variation in the use of these terms is not likely to cause serious misunderstanding. Rather, it allows the researcher to express a specific conceptualization of the scientific constructs mentioned in the article. The discipline of linguistics, however, would benefit from a more elaborate metatheoretical discussion.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

Résumé : Les méthodes de détection de similarités de sites de liaison servent entre autres à la prédiction de fonction et à la prédiction de cibles croisées. Ces méthodes peuvent aider à prévenir les effets secondaires, suggérer le repositionnement de médicament existants, identifier des cibles polypharmacologiques et des remplacements bio-isostériques. La plupart des méthodes utilisent des représentations basées sur les atomes, même si les champs d’interaction moléculaire (MIFs) représentent plus directement ce qui cherche à être identifié. Nous avons développé une méthode bio-informatique, IsoMif, qui détecte les similarités de MIF entre différents sites de liaisons et qui ne nécessite aucun alignement de séquence ou de structure. Sa performance a été comparée à d’autres méthodes avec des bancs d’essais, ce qui n’a jamais été fait pour une méthode basée sur les MIFs. IsoMif performe mieux en moyenne et est plus robuste. Nous avons noté des limites intrinsèques à la méthodologie et d’autres qui proviennent de la nature. L’impact de choix de conception sur la performance est discuté. Nous avons développé une interface en ligne qui permet la détection de similarités entre une protéine et différents ensembles de MIFs précalculés ou à des MIFs choisis par l’utilisateur. Des sessions PyMOL peuvent être téléchargées afin de visualiser les similarités identifiées pour différentes interactions intermoléculaires. Nous avons appliqué IsoMif pour identifier des cibles croisées potentielles de drogues lors d’une analyse à large échelle (5,6 millions de comparaisons). Des simulations d’arrimage moléculaire ont également été effectuées pour les prédictions significatives. L’objectif est de générer des hypothèses de repositionnement et de mécanismes d’effets secondaires observés. Plusieurs exemples sont présentés à cet égard.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

De plus en plus, la capacité de justifier les investissements devient une obligation qui incombe aux gestionnaires responsables de la formation. Dans le domaine de l'informatique utilisateur, cette responsabilité revêt une grande importance puisque les sommes investies en formation sont considérables. La présente étude répond donc aux besoins de ces gestionnaires par le développement d'outils leur permettant d'évaluer l'impact de la formation sur le personnel. De nombreuses informations de gestion leur sont ainsi transmises afin de faciliter la prise de décision à un niveau organisationnel. Dans un premier temps, notre outil d'évaluation des apprentissages leur permet de mesurer les connaissances et habiletés des apprenants au terme de la formation. Par la suite, notre outil d'évaluation et de suivi du transfert des apprentissages leur permet à la fois de mesurer et de qualifier l'utilisation de ces connaissances et habilités dans le contexte de travail. De plus, il leur permet d'identifier les principales raisons qui viennent expliquer ce transfert. Finalement, il est à noter que les outils présentés dans cet ouvrage ont été développés à l'aide de l'approche par compétences et s'adressent spécifiquement à une formation portant sur l'utilisation d'un logiciel de traitement de texte par des secrétaires. Toutefois, ces outils peuvent être adaptés à tout autre type de formation.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

La révolution introduite par l'ordinateur est l'un des faits les plus marquants du vingtième siècle. En effet, l'ordinateur a des répercussions profondes sur de nombreux aspects de notre vie quotidienne: transactions bancaires, cueillettes de données, recherche d'information, enseignement, sciences, etc. La manière dont l'ordinateur influence notre vie soit dans notre travail ou soit dans le monde qui nous entoure n'est pas terminée. Nos jeunes n'échappent pas à cette réalité. Dans la mesure où les ordinateurs modifient notre quotidien, nos jeunes doivent acquérir une expérience pratique de ce nouvel outil qui peut influencer et changer leur façon d'apprendre. Il nous apparaît donc souhaitable que nos jeunes utilisent ce nouvel outil qu'est l'ordinateur comme aide et soutien à leur apprentissage.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

Is phraseology the third articulation of language? Fresh insights into a theoretical conundrum Jean-Pierre Colson University of Louvain (Louvain-la-Neuve, Belgium) Although the notion of phraseology is now used across a wide range of linguistic disciplines, its definition and the classification of phraseological units remain a subject of intense debate. It is generally agreed that phraseology implies polylexicality, but this term is problematic as well, because it brings us back to one of the most controversial topics in modern linguistics: the definition of a word. On the other hand, another widely accepted principle of language is the double articulation or duality of patterning (Martinet 1960): the first articulation consists of morphemes and the second of phonemes. The very definition of morphemes, however, also poses several problems, and the situation becomes even more confused if we wish to take phraseology into account. In this contribution, I will take the view that a corpus-based and computational approach to phraseology may shed some new light on this theoretical conundrum. A better understanding of the basic units of meaning is necessary for more efficient language learning and translation, especially in the case of machine translation. Previous research (Colson 2011, 2012, 2013, 2014), Corpas Pastor (2000, 2007, 2008, 2013, 2015), Corpas Pastor & Leiva Rojo (2011), Leiva Rojo (2013), has shown the paramount importance of phraseology for translation. A tentative step towards a coherent explanation of the role of phraseology in language has been proposed by Mejri (2006): it is postulated that a third articulation of language intervenes at the level of words, including simple morphemes, sequences of free and bound morphemes, but also phraseological units. I will present results from experiments with statistical associations of morphemes across several languages, and point out that (mainly) isolating languages such as Chinese are interesting for a better understanding of the interplay between morphemes and phraseological units. Named entities, in particular, are an extreme example of intertwining cultural, statistical and linguistic elements. Other examples show that the many borrowings and influences that characterize European languages tend to give a somewhat blurred vision of the interplay between morphology and phraseology. From a statistical point of view, the cpr-score (Colson 2016) provides a methodology for adapting the automatic extraction of phraseological units to the morphological structure of each language. The results obtained can therefore be used for testing hypotheses about the interaction between morphology, phraseology and culture. Experiments with the cpr-score on the extraction of Chinese phraseological units show that results depend on how the basic units of meaning are defined: a morpheme-based approach yields good results, which corroborates the claim by Beck and Mel'čuk (2011) that the association of morphemes into words may be similar to the association of words into phraseological units. A cross-linguistic experiment carried out for English, French, Spanish and Chinese also reveals that the results are quite compatible with Mejri’s hypothesis (2006) of a third articulation of language. Such findings, if confirmed, also corroborate the notion of statistical semantics in language. To illustrate this point, I will present the PhraseoRobot (Colson 2016), a computational tool for extracting phraseological associations around key words from the media, such as Brexit. The results confirm a previous study on the term globalization (Colson 2016): a significant part of sociolinguistic associations prevailing in the media is related to phraseology in the broad sense, and can therefore be partly extracted by means of statistical scores. References Beck, D. & I. Mel'čuk (2011). Morphological phrasemes and Totonacan verbal morphology. Linguistics 49/1: 175-228. Colson, J.-P. (2011). La traduction spécialisée basée sur les corpus : une expérience dans le domaine informatique. In : Sfar, I. & S. Mejri, La traduction de textes spécialisés : retour sur des lieux communs. Synergies Tunisie n° 2. Gerflint, Agence universitaire de la Francophonie, p. 115-123. Colson, J.-P. (2012). Traduire le figement en langue de spécialité : une expérience de phraséologie informatique. In : Mogorrón Huerta, P. & S. Mejri (dirs.), Lenguas de especialidad, traducción, fijación / Langues spécialisées, figement et traduction. Encuentros Mediterráneos / Rencontres Méditerranéennes, N°4. Universidad de Alicante, p. 159-171. Colson, J.-P. (2013). Pratique traduisante et idiomaticité : l’importance des structures semi-figées. In : Mogorrón Huerta, P., Gallego Hernández, D., Masseau, P. & Tolosa Igualada, M. (eds.), Fraseología, Opacidad y Traduccíon. Studien zur romanischen Sprachwissenschaft und interkulturellen Kommunikation (Herausgegeben von Gerd Wotjak). Frankfurt am Main, Peter Lang, p. 207-218. Colson, J.-P. (2014). La phraséologie et les corpus dans les recherches traductologiques. Communication lors du colloque international Europhras 2014, Association Européenne de Phraséologie. Université de Paris Sorbonne, 10-12 septembre 2014. Colson, J-P. (2016). Set phrases around globalization : an experiment in corpus-based computational phraseology. In: F. Alonso Almeida, I. Ortega Barrera, E. Quintana Toledo and M. Sánchez Cuervo (eds.), Input a Word, Analyse the World: Selected Approaches to Corpus Linguistics. Newcastle upon Tyne: Cambridge Scholars Publishing, p. 141-152. Corpas Pastor, G. (2000). Acerca de la (in)traducibilidad de la fraseología. In: G. Corpas Pastor (ed.), Las lenguas de Europa: Estudios de fraseología, fraseografía y traducción. Granada: Comares, p. 483-522. Corpas Pastor, G. (2007). Europäismen - von Natur aus phraseologische Äquivalente? Von blauem Blut und sangre azul. In: M. Emsel y J. Cuartero Otal (eds.), Brücken: Übersetzen und interkulturelle Kommunikationen. Festschrift für Gerd Wotjak zum 65. Geburtstag, Fráncfort: Peter Lang, p. 65-77. Corpas Pastor, G. (2008). Investigar con corpus en traducción: los retos de un nuevo paradigma [Studien zur romanische Sprachwissenschaft und interkulturellen Kommunikation, 49], Fráncfort: Peter Lang. Corpas Pastor, G. (2013). Detección, descripción y contraste de las unidades fraseológicas mediante tecnologías lingüísticas. In Olza, I. & R. Elvira Manero (eds.) Fraseopragmática. Berlin: Frank & Timme, p. 335-373. Leiva Rojo, J. (2013). La traducción de unidades fraseológicas (alemán-español/español-alemán) como parámetro para la evaluación y revisión de traducciones. In: Mellado Blanco, C., Buján, P, Iglesias N.M., Losada M.C. & A. Mansilla (eds), La fraseología del alemán y el español: lexicografía y traducción. ELS, Etudes Linguistiques / Linguistische Studien, Band 11. München: Peniope, p. 31-42. Leiva Rojo, J. & G. Corpas Pastor (2011). Placing Italian idioms in a foreign milieu: a case study. In: Pamies Bertrán, A., Luque Nadal, L., Bretana, J. &; M. Pazos (eds), (2011). Multilingual phraseography. Second Language Learning and Translation Applications. Baltmannsweiler: Schneider Verlag (Colección: Phraseologie und Parömiologie, 28), p. 289-298. Martinet, A. (1966). Eléments de linguistique générale. Paris: Colin. Mejri, S. (2006). Polylexicalité, monolexicalité et double articulation. Cahiers de Lexicologie 2: 209-221.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

La terminologie, telle quelle se pratique au Québec depuis une cinquantaine d'années, s'inscrit dans un projet d'aménagement linguistique qui vise à faire du français la langue d'utilisation commune sur le territoire québécois. La mise en œuvre de ce projet a été confiée à l'Office québécois de la langue française. Dans le cadre de la présente thèse, nous évaluons l'influence de l'aménagement linguistique sur l'orientation des travaux de terminologie à l'Office québécois de la langue française de 1961 à 2004. Notre objectif principal est de montrer que le projet d'aménagement linguistique a engendré une intense activité terminologique à la suite de l'adoption de diverses lois linguistiques au cours des cinquante dernières années. Plus précisément, nous analysons l'impact de ces lois sur le développement de la pratique de la terminologie. Pour ce faire, nous avons proposé six périodes qui caractérisent les travaux de terminologie de l'Office québécois de la langue française de 1961 à 2004. À l'intérieur de ces six périodes, nous analysons les mandats que les lois linguistiques ont confiés à l'Office et leurs répercussions sur l'orientation de ses travaux terminologiques. À l'instar de la problématique que nous avons esquissée au début de cette thèse, les résultats de notre recherche révèlent que la pratique de la terminologie est liée au projet de société que le Québec s'est donné pour assurer la défense du français sur son territoire. En outre, l'adoption des lois linguistiques a favorisé le développement de la pratique de la terminologie. Cette pratique a évolué en fonction des différents mandats confiés à l'Office québécois de la langue française qui a mis au point une méthodologie de travail en terminologie. C'est dans le cadre de l'aménagement linguistique que la terminologie s'est développée au Québec et qu'elle est devenue l'instrument clé de la mise en œuvre du projet d'aménagement linguistique québécois.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

La « pensée mixte » est une approche de la composition caractérisée par l’interaction de trois pensées: la pensée instrumentale, la pensée électroacoustique et la pensée informatique. Elle prend la forme d’un réseau où le compositeur fait des aller-retours entre les trois pensées et réalise des équivalences paramétriques. La pensée instrumentale se rattache à la tradition de l’écriture occidentale, la pensée électroacoustique fait allusion aux pratiques du studio analogique et de la musique acousmatique, et la pensée informatique fait référence aux pratiques numériques de la programmation visuelle et de l’analyse spectrale. Des lieux communs existent où s’opèrent l’interaction des trois pensées: la notion du studio instrumental de Ivo Malec, la notion de musique concrète instrumentale de Helmut Lachenmann, la composition assistée par ordinateur, la musique spectrale, l’approche instrumentale par montage, la musique acousmatique s’inspirant de la tradition musicale écrite et les musiques mixtes. Ces domaines constituent les influences autour desquelles j’ai composé un corpus de deux cycles d’œuvres: Les Larmes du Scaphandre et le Nano-Cosmos. L’analyse des œuvres met en évidence la notion de « pensée mixte » en abordant la pensée électroacoustique dans ma pratique instrumentale, la pensée informatique dans ma pratique musicale, et la pensée instrumentale dans ma pratique électroacoustique.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

La « pensée mixte » est une approche de la composition caractérisée par l’interaction de trois pensées: la pensée instrumentale, la pensée électroacoustique et la pensée informatique. Elle prend la forme d’un réseau où le compositeur fait des aller-retours entre les trois pensées et réalise des équivalences paramétriques. La pensée instrumentale se rattache à la tradition de l’écriture occidentale, la pensée électroacoustique fait allusion aux pratiques du studio analogique et de la musique acousmatique, et la pensée informatique fait référence aux pratiques numériques de la programmation visuelle et de l’analyse spectrale. Des lieux communs existent où s’opèrent l’interaction des trois pensées: la notion du studio instrumental de Ivo Malec, la notion de musique concrète instrumentale de Helmut Lachenmann, la composition assistée par ordinateur, la musique spectrale, l’approche instrumentale par montage, la musique acousmatique s’inspirant de la tradition musicale écrite et les musiques mixtes. Ces domaines constituent les influences autour desquelles j’ai composé un corpus de deux cycles d’œuvres: Les Larmes du Scaphandre et le Nano-Cosmos. L’analyse des œuvres met en évidence la notion de « pensée mixte » en abordant la pensée électroacoustique dans ma pratique instrumentale, la pensée informatique dans ma pratique musicale, et la pensée instrumentale dans ma pratique électroacoustique.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

Le journalisme informatique est une pratique émergente qui consiste en l’emploi de méthodes et d’outils empruntés au domaine de l’informatique dans la cueillette, le traitement, l’analyse ou la présentation en ligne de l’information, dans le respect des valeurs fondamentales du journalisme (Diakopoulos, 2010). Cette recherche caractérise le journalisme informatique tel qu’il se pratique au Québec en 2015 au moyen d’une série d’entrevues semi-dirigées avec 30 participants : des praticiens, bien sûr, mais aussi des responsables des principales entreprises de presse où le journalisme informatique est pratiqué ou a été pratiqué, ainsi que des professionnels de l’informatique afin d’avoir un point de vue extérieur. Elle met notamment en relief deux attitudes à l’égard de cette pratique, attitudes qui s’expriment par un travail-frontière. Il y a, d’une part, les tenants d’une ségrégation entre le journalisme et l’informatique, et, d’autre part, les partisans d’une hybridation entre les deux disciplines. Pour ces derniers, le journalisme informatique occupe un territoire professionnel distinct, à la frontière du journalisme et de l’informatique. Cette recherche décrit de façon détaillée les motivations, les compétences et les activités des journalistes informatiques québécois et fait valoir qu’ils participent à une certaine « re-professionnalisation » du journalisme. Mots-clés : journalisme; informatique; technologie; journalisme informatique; journalisme de données; datajournalisme; journalisme assisté par ordinateur; professionnalisme; identité professionnelle; compétences professionnelles; travail-frontière; innovation en journalisme; Canada; Québec

Relevância:

20.00% 20.00%

Publicador:

Resumo:

Le but de cette recherche tente de trouver les causes au taux d'échec et d'abandon élevé en technique de l'informatique. Notre étude a été menée au cégep de Saint-Hyacinthe à l'hiver 2005. Nous avons également étendu notre réflexion à rechercher des solutions à cette problématique, lesquelles nous le croyons, pourraient être appliquées dans d'autres cégeps ou même d'autres techniques. Nous avons voulu proposer des solutions applicables plutôt que d'en faire une liste exhaustive. Pour y arriver, nous avons limité notre champ d'analyse aux domaines suivants: le temps d'étude, le travail rémunéré, la qualité de l'intervention pédagogique et le choc du passage du secondaire au collégial. Nous voulions aussi vérifier si le taux de diplomation en technique de l'informatique au cégep de Saint-Hyacinthe que nous évaluions à 35% a évolué depuis 1994 à aujourd'hui. Nous avons également cherché à établir un lien entre le temps d'étude et le temps occupé à un travail rémunéré. De là nous avons essayé de trouver la corrélation entre le temps d'étude et la réussite scolaire. Finalement, notre dernier objectif était d'interroger les intervenants des différents niveaux afin de recueillir les solutions qu'ils proposaient à la problématique soulevée. De plus, nous avons interrogé par questionnaire tous les étudiants du programme pour jauger leur niveau de satisfaction. Nous avons divisé cette étude en quatre chapitres dont le premier définit la problématique. Dans ce chapitre, notre intention était de recenser les principaux problèmes d'échec et d'abandon relevés en informatique au cégep de Saint-Hyacinthe et d'y suggérer des solutions. Le second chapitre consiste en une recension d'écrits permettant de renforcer notre réflexion à l'aide de références provenant de chercheurs renommés. Le troisième chapitre relate la méthodologie employée pour recueillir les données et propos des répondants à cette étude. Le quatrième chapitre fait état de la collecte de données effectuée à l'hiver 2005 et qui a consisté en des questionnaires et des entrevues dirigées; dans ce même chapitre, les données sont présentées, analysées et synthétisées à l'aide de graphiques et de tableaux. Tout près de 90 répondants ont été interrogés que ce soit en entrevue ou par questionnaire. De plus au-delà de 110 tableaux statistiques provenant du Service régional d'admission du Montréal métropolitain (SRAM) ont servi de base à cette étude. Finalement, en guise de conclusion, cette étude nous a permis de présenter une synthèse de l'ensemble du travail effectué au cours de la présente recherche. Voici en résumé les résultats de notre recherche. Notre analyse des données statistiques nous a permis d'établir un portrait de l'étudiant moyen en technique de l'informatique au cégep de Saint-Hyacinthe. C'est un garçon qui a environ 18 ans à son inscription au programme, il passe entre 5 et 7 heures à étudier, un peu moins en première mais un peu plus en troisième année. Il occupe un travail rémunéré environ 15 heures par semaine. Il faut préciser que la clientèle du programme est presque exclusivement de sexe masculin. Les professeurs interrogés du département d'informatique ont fait ressortir clairement que le choc du passage du secondaire au collégial est très présent. Les élèves arrivant du secondaire ont souvent l'habitude de réussir sans étudier. Ils vivent souvent leur premier échec scolaire au cégep et se sentent très désemparés face à cette situation. Ils ignorent les outils à leur disposition et n'osent pas demander de l'aide à leurs professeurs. Les différents intervenants consultés nous ont proposé les solutions tels que d'offrir des ateliers ou des cours de prise de notes, de gestion du temps, de gestion des priorités, et finalement de faire connaître les services déjà offerts aux étudiants pour les aider à réussir. Nous pouvons mentionner ici que les élèves du programme n'ont pratiquement pas consulté les services du centre d'aide à la réussite durant la dernière année. Ils attendent souvent trop longtemps avant de demander de l'aide et il ne leur reste souvent plus d'autre choix que d'abandonner le programme. Les professeurs ont aussi le devoir de détecter les étudiants nécessitant de l'aide. Ceux-ci se sentent démunis pour aider les étudiants et ont manifesté avoir besoin d'assistance en ce sens. Comme mentionné précédemment nous avions évalué le taux de diplomation du programme à environ 35 %. L'analyse des statistiques nous a révélé que ce taux affiche une légère progression depuis 1994. À notre surprise, par contre, nous avons constaté que ce taux est légèrement au-dessus du taux moyen des autres collèges de la province (SRAM) et même de celui d'autres programmes majoritairement composés de garçons du cégep de Saint-Hyacinthe (voir le graphique 2, p. 53). Nous avons voulu connaître ce que pensaient nos étudiants ayant abandonné le programme et à l'inverse ceux qui en étaient diplômés. Nos répondants diplômés avaient tous un emploi en informatique et avouaient avoir réussi à force de volonté. Leur principale motivation à terminer leurs études était d'obtenir un emploi intéressant et bien rémunéré. Ils ont fait les travaux demandés car ils les préparaient bien aux examens. Cependant, nos répondants qui ont abandonné le programme nous ont confié qu'un emploi rémunéré occupant trop de temps hebdomadaire et le trop peu de temps d'étude avait contribué à les faire abandonner. Nous avons observé que le temps passé à un travail rémunéré n'influence pas le temps passé à étudier. Par contre, le temps passé à étudier a une répercussion sur la réussite. Nous ajoutons ici que trop de temps passé au travail rémunéré et pas assez aux études favorise l'échec et l'abandon. En conclusion, l'élève qui croit en sa réussite prend les moyens pour l'obtenir. La théorie que nous avons énoncée au début de cet ouvrage spécifiant que seuls les élèves les mieux organisés réussissaient s'avère donc vérifiée, mais nous pouvons malheureusement constater aussi que les élèves les moins organisés abandonnent le programme. Les questionnaires remplis par tous les étudiants du programme nous ont révélé un net manque d'équilibre au niveau du travail exigé lors du passage de la première année à la seconde. Nos entrevues avec les professeurs du programme nous ont confirmé que les élèves trouvaient difficile le passage de la première à la deuxième année. Assiste-on à un report du choc du passage du secondaire au collégial vers le choc du passage de la première à la deuxième année? Aurait-on repoussé le problème en deuxième année en voulant faciliter le passage du secondaire au collégial? Il faudrait bien se garder maintenant de repousser le problème en troisième année, ce serait dommage que ce soit à l'arrivée sur le marché du travail que le choc se produise. Il est donc de première importance que les élèves soient bien préparés à la réalisation des étapes suivantes. Nous ne rendrions pas service à trop faciliter la réussite et que ce soit le marché du travail qui rejette nos étudiants. Enfin voilà pourquoi, après cette mise en garde, six projets seront mis en place afin de favoriser la réussite de nos étudiants tout en conservant une formation de grande qualité qui est la caractéristique du programme de technique de l'informatique du cégep de Saint-Hyacinthe. Voici la liste de ces projets dont vous trouverez une description en consultant la section 3.4 intitulée « Entrevues avec un cadre de la direction des études » : a) implantation du programme Alternance travail-études (ATE), b) la création d'une équipe d'intervention auprès des élèves de première année, c) la création d'un centre d'assistance en technologie de l'information et des communications (TIC), d) l'implantation du tutorat par les pairs, e) la promotion du programme d'informatique et finalement f) l'assistance d'un professeur aux services techniques du département afin de favoriser l'implantation des nouvelles technologies de pointe. Tous ces moyens mis de l'avant permettront, nous l'espérons, de faire en sorte que le programme d'informatique du cégep de Saint-Hyacinthe se démarque grâce à son innovation et à sa volonté de résoudre le faible taux de diplomation tout en offrant une formation de la plus haute qualité.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

Notre étude s’intéresse à la représentation que des étudiants universitaires provenant du nord de l’Italie se font des formes dialectales et des langues minoritaires parlées dans leur région. Notre objectif premier étant de fait, à ce stade de nos recherches, de dégager les représentations que des jeunes citadins instruits se font d’objets linguistiques qui constituent, si nous nous plaçons dans une optique diglossique, la variante basse. Nous pourrions en d’autres termes parler d’une concurrence inégale dans laquelle se trouvent deux langues où nous admettons que l’italien constitue la variété haute et où les dialectes ou langues minoritaires auraient en commun d’être associés à la variété basse.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

Le terme Secunda désigne la deuxième colonne de la synopse hexaplaire d’Origène. Cette synopse comportait six colonnes, d’où le nom Hexapla utilisé pour la désigner : la première contenait le texte hébreu original de l’Ancien Testament, la deuxième (Secunda) sa transcription phonétique en caractères grecs, les quatre autres les différentes traductions grecques de la Bible. La présence de graphèmes de vocaliques grecs dans la Secunda permet de mener une étude grammaticale complète de cette source, d’un point de vue phonétique et morphologique. Il manque encore actuellement une recherche qui développe le rapport entre la tradition hébraïque de la Secunda, telle qu’elle ressort de la transcription, et les autres traditions hébraïques attestées : celles sans graphèmes vocaliques (c’est-à-dire la tradition samaritaine et le corpus qumranien) et les traditions plus tardives et vocalisées pendant la période médiévale (les traditions massorétique tibérienne, babylonienne et palestinienne). Ce dernier point est précisément l’objet de cette thèse, qui vise à mieux comprendre le statut de l’hébreu de la Secunda, ses relations avec les autres traditions hébraïques et sa place dans l’histoire de la langue. Cette question est abordée à travers différentes étapes : en partant d’une étude phonétique et morphologique de la langue hébraïque de la colonne, on arrive à une hypothèse de datation qui permet une comparaison directe entre l’hébreu hexaplaire et les autres traditions mentionnées ci-dessus. La comparaison entre la Secunda et les autres traditions est cruciale pour situer correctement la Secunda dans l’histoire de la langue hébraïque : au niveau synchronique, elle permet de mettre en évidence ses éléments dialectaux, documentés dans les transcriptions de la Secunda et dans les traditions de la même époque ; au niveau diachronique, elle fournit des terminus ante ou post quem pour des phénomènes bien attestés dans les traditions tardives.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

L’obiettivo del presente elaborato è quello di proporre la traduzione dal francese all’italiano del saggio “Violence linguistique” di Marie-Claude Marsolier, tratto dal libro La pensée végane. 50 regards sur la condition animale, a cura di Renan Larue. Il primo capitolo dell’elaborato presenta l’analisi dell’opera nonché la relazione tra l’attività di traduzione e gli ambiti dell'ecologia e dell'attivismo, in particolar modo in riferimento al tema della condizione animale, argomento centrale nel saggio tradotto. Il contributo analizza infatti il ruolo del nostro linguaggio nel contribuire a rafforzare la distinzione tra animali ed esseri umani, ponendo questi ultimi in una posizione di superiorità rispetto ai primi. Segue, nel secondo capitolo, la proposta di traduzione del saggio, accompagnata da una nota prefativa che introduce la presenza di adattamenti rispetto al testo originale. Il terzo capitolo, infine, illustra le principali strategie traduttive adottate, ovvero le strategie che si sono rivelate più efficaci nella traduzione del testo in relazione ai temi trattati.