505 resultados para chercheurs
Resumo:
Plusieurs recherches traitent de la thématique des devoirs et de son importance dans la scolarisation des enfants. En particulier, des études portent sur l’impact de la participation parentale dans l’aide aux devoirs sur le rendement scolaire des enfants. Cependant, les conclusions de ces études sont souvent contradictoires (Pattal, Cooper et Robinson, 2008). Compte tenu de la difficulté à démontrer l’existence d’une relation positive entre la participation parentale à la réalisation des devoirs à la maison et le rendement scolaire, il apparaît important de mieux comprendre le phénomène de la participation parentale. En ce sens, selon certains chercheurs, la variation de l’effet de la participation parentale sur le rendement scolaire serait due principalement à certaines caractéristiques familiales, personnelles et scolaires de l’enfant. Dans ce contexte, et pour une meilleure compréhension des facteurs associés à la participation parentale, notre étude examine la participation parentale à la réalisation des devoirs à la maison en tenant compte des caractéristiques familiales, personnelles et scolaires des enfants du primaire En premier lieu, la situation de la réalisation des devoirs à la maison est traitée et la participation parentale aux devoirs est analysée en fonction de sa fréquence, de sa durée et du climat relationnel entre l’enfant et le parent lors de ces activités à la maison. En second lieu, la participation des parents à la réalisation des devoirs est examinée en relation avec les caractéristiques familiales (scolarité des parents, revenu et structure de la famille), les caractéristiques personnelles de l’enfant (genre et rendement) et les exigences des enseignants à l’égard des devoirs. Cette recherche utilise une base de données constituée lors de deux enquêtes par questionnaire. La première concerne 192 écoles et 457 enseignants, la deuxième est menée dans 51 écoles auprès de 49 enseignants, 848 élèves de la 6e année du primaire et 521 parents. À l’aide d’analyses descriptives et inférentielles, il est possible de rendre compte des conditions de la participation parentale aux devoirs chez les élèves du primaire et d’identifier les variables familiales, personnelles et scolaires associées à la participation parentale à la réalisation des devoirs de leur enfant. Les résultats de cette étude confirment que la participation des parents à la réalisation des devoirs pourrait varier en fonction des caractéristiques familiales de l’enfant au primaire. De plus, ils montrent que le rendement scolaire de l’enfant est un facteur important à considérer pour juger de la participation parentale aux devoirs.
Resumo:
Les méthodes de Monte Carlo par chaînes de Markov (MCCM) sont des méthodes servant à échantillonner à partir de distributions de probabilité. Ces techniques se basent sur le parcours de chaînes de Markov ayant pour lois stationnaires les distributions à échantillonner. Étant donné leur facilité d’application, elles constituent une des approches les plus utilisées dans la communauté statistique, et tout particulièrement en analyse bayésienne. Ce sont des outils très populaires pour l’échantillonnage de lois de probabilité complexes et/ou en grandes dimensions. Depuis l’apparition de la première méthode MCCM en 1953 (la méthode de Metropolis, voir [10]), l’intérêt pour ces méthodes, ainsi que l’éventail d’algorithmes disponibles ne cessent de s’accroître d’une année à l’autre. Bien que l’algorithme Metropolis-Hastings (voir [8]) puisse être considéré comme l’un des algorithmes de Monte Carlo par chaînes de Markov les plus généraux, il est aussi l’un des plus simples à comprendre et à expliquer, ce qui en fait un algorithme idéal pour débuter. Il a été sujet de développement par plusieurs chercheurs. L’algorithme Metropolis à essais multiples (MTM), introduit dans la littérature statistique par [9], est considéré comme un développement intéressant dans ce domaine, mais malheureusement son implémentation est très coûteuse (en termes de temps). Récemment, un nouvel algorithme a été développé par [1]. Il s’agit de l’algorithme Metropolis à essais multiples revisité (MTM revisité), qui définit la méthode MTM standard mentionnée précédemment dans le cadre de l’algorithme Metropolis-Hastings sur un espace étendu. L’objectif de ce travail est, en premier lieu, de présenter les méthodes MCCM, et par la suite d’étudier et d’analyser les algorithmes Metropolis-Hastings ainsi que le MTM standard afin de permettre aux lecteurs une meilleure compréhension de l’implémentation de ces méthodes. Un deuxième objectif est d’étudier les perspectives ainsi que les inconvénients de l’algorithme MTM revisité afin de voir s’il répond aux attentes de la communauté statistique. Enfin, nous tentons de combattre le problème de sédentarité de l’algorithme MTM revisité, ce qui donne lieu à un tout nouvel algorithme. Ce nouvel algorithme performe bien lorsque le nombre de candidats générés à chaque itérations est petit, mais sa performance se dégrade à mesure que ce nombre de candidats croît.
Resumo:
Le réalisme des objets en infographie exige de simuler adéquatement leur apparence sous divers éclairages et à différentes échelles. Une solution communément adoptée par les chercheurs consiste à mesurer avec l’aide d’appareils calibrés la réflectance d’un échantillon de surface réelle, pour ensuite l’encoder sous forme d’un modèle de réflectance (BRDF) ou d’une texture de réflectances (BTF). Malgré des avancées importantes, les données ainsi mises à la portée des artistes restent encore très peu utilisées. Cette réticence pourrait s’expliquer par deux raisons principales : (1) la quantité et la qualité de mesures disponibles et (2) la taille des données. Ce travail propose de s’attaquer à ces deux problèmes sous l’angle de la simulation. Nous conjecturons que le niveau de réalisme du rendu en infographie produit déjà des résultats satisfaisants avec les techniques actuelles. Ainsi, nous proposons de précalculer et encoder dans une BTF augmentée les effets d’éclairage sur une géométrie, qui sera par la suite appliquée sur les surfaces. Ce précalcul de rendu et textures étant déjà bien adopté par les artistes, il pourra mieux s’insérer dans leurs réalisations. Pour nous assurer que ce modèle répond aussi aux exigences des représentations multi-échelles, nous proposons aussi une adaptation des BTFs à un encodage de type MIP map.
Resumo:
L’apprentissage supervisé de réseaux hiérarchiques à grande échelle connaît présentement un succès fulgurant. Malgré cette effervescence, l’apprentissage non-supervisé représente toujours, selon plusieurs chercheurs, un élément clé de l’Intelligence Artificielle, où les agents doivent apprendre à partir d’un nombre potentiellement limité de données. Cette thèse s’inscrit dans cette pensée et aborde divers sujets de recherche liés au problème d’estimation de densité par l’entremise des machines de Boltzmann (BM), modèles graphiques probabilistes au coeur de l’apprentissage profond. Nos contributions touchent les domaines de l’échantillonnage, l’estimation de fonctions de partition, l’optimisation ainsi que l’apprentissage de représentations invariantes. Cette thèse débute par l’exposition d’un nouvel algorithme d'échantillonnage adaptatif, qui ajuste (de fa ̧con automatique) la température des chaînes de Markov sous simulation, afin de maintenir une vitesse de convergence élevée tout au long de l’apprentissage. Lorsqu’utilisé dans le contexte de l’apprentissage par maximum de vraisemblance stochastique (SML), notre algorithme engendre une robustesse accrue face à la sélection du taux d’apprentissage, ainsi qu’une meilleure vitesse de convergence. Nos résultats sont présent ́es dans le domaine des BMs, mais la méthode est générale et applicable à l’apprentissage de tout modèle probabiliste exploitant l’échantillonnage par chaînes de Markov. Tandis que le gradient du maximum de vraisemblance peut-être approximé par échantillonnage, l’évaluation de la log-vraisemblance nécessite un estimé de la fonction de partition. Contrairement aux approches traditionnelles qui considèrent un modèle donné comme une boîte noire, nous proposons plutôt d’exploiter la dynamique de l’apprentissage en estimant les changements successifs de log-partition encourus à chaque mise à jour des paramètres. Le problème d’estimation est reformulé comme un problème d’inférence similaire au filtre de Kalman, mais sur un graphe bi-dimensionnel, où les dimensions correspondent aux axes du temps et au paramètre de température. Sur le thème de l’optimisation, nous présentons également un algorithme permettant d’appliquer, de manière efficace, le gradient naturel à des machines de Boltzmann comportant des milliers d’unités. Jusqu’à présent, son adoption était limitée par son haut coût computationel ainsi que sa demande en mémoire. Notre algorithme, Metric-Free Natural Gradient (MFNG), permet d’éviter le calcul explicite de la matrice d’information de Fisher (et son inverse) en exploitant un solveur linéaire combiné à un produit matrice-vecteur efficace. L’algorithme est prometteur: en terme du nombre d’évaluations de fonctions, MFNG converge plus rapidement que SML. Son implémentation demeure malheureusement inefficace en temps de calcul. Ces travaux explorent également les mécanismes sous-jacents à l’apprentissage de représentations invariantes. À cette fin, nous utilisons la famille de machines de Boltzmann restreintes “spike & slab” (ssRBM), que nous modifions afin de pouvoir modéliser des distributions binaires et parcimonieuses. Les variables latentes binaires de la ssRBM peuvent être rendues invariantes à un sous-espace vectoriel, en associant à chacune d’elles, un vecteur de variables latentes continues (dénommées “slabs”). Ceci se traduit par une invariance accrue au niveau de la représentation et un meilleur taux de classification lorsque peu de données étiquetées sont disponibles. Nous terminons cette thèse sur un sujet ambitieux: l’apprentissage de représentations pouvant séparer les facteurs de variations présents dans le signal d’entrée. Nous proposons une solution à base de ssRBM bilinéaire (avec deux groupes de facteurs latents) et formulons le problème comme l’un de “pooling” dans des sous-espaces vectoriels complémentaires.
Resumo:
Les dysfonctions attentionnelles suivant un traumatisme craniocérébral (TCC) compliquent souvent la reprise des activités de la vie quotidienne et influencent négativement le pronostic de réinsertion socio-académique et professionnelle. Or, les cliniciens de réadaptation disposent d’un nombre limité d’outils de remédiation cognitive dont l’efficacité est démontrée et qui sont adaptés à une population francophone. Cette étude vise à démontrer l’efficacité d’un protocole d’entrainement intensif des fonctions attentionnelles : « Attention! Prêt? On s’enTraine! » (Séguin, Lahaie & Beauchamp, 2012), basé sur une adaptation française de l’« Attention Process Training-I » (APT-I; Sohlberg & Mateer, 1987). Dix-sept participants ayant subi un TCC et présentant des déficits attentionnels ont reçu 15 séances d’entrainement attentionnel avec le programme « Attention! Prêt? On s’enTraine! » (n = 8) ou de l’aide aux devoirs (n = 9). Suite à l’intervention, les participants du groupe expérimental ont amélioré leur rendement dans plusieurs fonctions ciblées par l’intervention attentionnelle, notamment au niveau du balayage visuel, de l’attention sélective et de l’alternance attentionnelle. De plus, les gains se sont généralisés à des fonctions connexes, puisqu’une meilleure performance a été retrouvée dans des tâches de mémoire de travail, d’inhibition, de flexibilité cognitive et de planification visuoconstructive. La démonstration de l’effet positif d’un entrainement intensif sur le rendement attentionnel pourrait inciter les cliniciens et chercheurs à développer et à valider d’autres protocoles de remédiation cognitive francophones, pour les fonctions attentionnelles ou d’autres sphères de la cognition. Par le fait même, le pronostic fonctionnel de la clientèle pédiatrique en traumatologie en sera potentialisé.
Resumo:
La littérature contient une abondance d’information sur les approches de design impliquant les utilisateurs. Bien que les chercheurs soulèvent de nombreux avantages concernant ces approches, on en sait peu sur ce que les concepteurs des entreprises en pensent. Ce projet a pour but de connaître les perceptions des concepteurs de produits quant aux outils de design participatif puis, d’identifier les opportunités et limites qu’ils évoquent à ce sujet, et finalement, de faire des suggestions d’outils qui faciliteraient l’introduction du design participatif dans un processus de design existant. Après avoir fait un survol du domaine du design participatif et de ses outils, six cas sont étudiés au moyen d’entrevues semi-dirigées conduites auprès de concepteurs de produits. Les données sont analysées à l’aide de cartes cognitives. En ce qui concerne les outils de design participatif, les participants rencontrés perçoivent un accès direct aux besoins des utilisateurs et la possibilité de minimiser les erreurs en début de processus donc, d’éviter les modifications coûteuses qu’elles auraient entraînées. Les obstacles perçus par les concepteurs sont principalement liés à la résistance au changement, à la crainte de laisser créer ou décider les utilisateurs, ainsi qu’au manque de temps et de ressources de l’équipe. Finalement, sur la base des informations collectées, nous suggérons quatre outils de design participatif qui semblent plus intéressants : l’enquête contextuelle, les sondes, les tests de prototypes et l’approche « lead user ». Pour faire suite à ce travail, il serait intéressant d’élaborer un protocole de recherche plus exhaustif pour augmenter la portée des résultats, ou encore, d’appliquer le design participatif, dans une entreprise, afin d’explorer la satisfaction des gens quant aux produits conçus, les effets collatéraux sur les équipes impliquées, l’évolution des prototypes ou le déroulement des ateliers.
Resumo:
Rapport de stage présenté à la Faculté des Arts et des Sciences en vue de l'obtention du grade de Maîtrise (M.Sc.) en criminologie
Resumo:
La démocratisation scolaire va de pair avec l’enjeu contemporain de l’adaptation scolaire. Une catégorie d’élèves handicapés en difficulté d’apprentissage ou d’adaptation (EHDAA) classifiés par le MELS demeure plus problématique que les autres. Il s’agit des élèves présentant des troubles de comportements extériorisés. Ces élèves sont plus susceptibles que les autres de ne pas suivre le cheminement régulier, de décrocher et de connaître des difficultés d’intégration professionnelle. Comment expliquer alors qu’une minorité d’entre eux, contre toute probabilité statistique, parvient à graduer et à s’insérer dans une carrière stimulante ? Comment peuvent s’atténuer les troubles de comportement à l’âge adulte? Ce mémoire a pour ambition d’apporter un éclairage sur ces questionnements et propose une analyse sociologique des facteurs de persévérance scolaire et d’insertion professionnelle d’adultes ayant présenté des troubles de comportements extériorisés durant leurs études secondaires. Il repose sur l’analyse d’entretiens biographiques de deux individus répondant à ces critères. L’analyse de leur trajectoire démontre que leur insertion sociale s’est formée grâce à l’ « interconnaissance » et l’ « interreconnaissance » de différents types de capital tel qu’entendu par Pierre Bourdieu. En se basant également sur la méthode d’analyse des récits d’insertion proposée par Demazière et Dubar, quatre tendances furent dégagées quant à la manière dont les ressources des enquêtés furent mobilisées. Bien que le matériau soit modeste, ce mémoire jette un regard inédit sur plusieurs facettes du phénomène qui espérons-le, retiendra l’attention d’autres chercheurs qui approfondiront les pistes mises au jour dans ce mémoire.
Resumo:
Le problème de tournées de véhicules (VRP), introduit par Dantzig and Ramser en 1959, est devenu l'un des problèmes les plus étudiés en recherche opérationnelle, et ce, en raison de son intérêt méthodologique et de ses retombées pratiques dans de nombreux domaines tels que le transport, la logistique, les télécommunications et la production. L'objectif général du VRP est d'optimiser l'utilisation des ressources de transport afin de répondre aux besoins des clients tout en respectant les contraintes découlant des exigences du contexte d’application. Les applications réelles du VRP doivent tenir compte d’une grande variété de contraintes et plus ces contraintes sont nombreuse, plus le problème est difficile à résoudre. Les VRPs qui tiennent compte de l’ensemble de ces contraintes rencontrées en pratique et qui se rapprochent des applications réelles forment la classe des problèmes ‘riches’ de tournées de véhicules. Résoudre ces problèmes de manière efficiente pose des défis considérables pour la communauté de chercheurs qui se penchent sur les VRPs. Cette thèse, composée de deux parties, explore certaines extensions du VRP vers ces problèmes. La première partie de cette thèse porte sur le VRP périodique avec des contraintes de fenêtres de temps (PVRPTW). Celui-ci est une extension du VRP classique avec fenêtres de temps (VRPTW) puisqu’il considère un horizon de planification de plusieurs jours pendant lesquels les clients n'ont généralement pas besoin d’être desservi à tous les jours, mais plutôt peuvent être visités selon un certain nombre de combinaisons possibles de jours de livraison. Cette généralisation étend l'éventail d'applications de ce problème à diverses activités de distributions commerciales, telle la collecte des déchets, le balayage des rues, la distribution de produits alimentaires, la livraison du courrier, etc. La principale contribution scientifique de la première partie de cette thèse est le développement d'une méta-heuristique hybride dans la quelle un ensemble de procédures de recherche locales et de méta-heuristiques basées sur les principes de voisinages coopèrent avec un algorithme génétique afin d’améliorer la qualité des solutions et de promouvoir la diversité de la population. Les résultats obtenus montrent que la méthode proposée est très performante et donne de nouvelles meilleures solutions pour certains grands exemplaires du problème. La deuxième partie de cette étude a pour but de présenter, modéliser et résoudre deux problèmes riches de tournées de véhicules, qui sont des extensions du VRPTW en ce sens qu'ils incluent des demandes dépendantes du temps de ramassage et de livraison avec des restrictions au niveau de la synchronization temporelle. Ces problèmes sont connus respectivement sous le nom de Time-dependent Multi-zone Multi-Trip Vehicle Routing Problem with Time Windows (TMZT-VRPTW) et de Multi-zone Mult-Trip Pickup and Delivery Problem with Time Windows and Synchronization (MZT-PDTWS). Ces deux problèmes proviennent de la planification des opérations de systèmes logistiques urbains à deux niveaux. La difficulté de ces problèmes réside dans la manipulation de deux ensembles entrelacés de décisions: la composante des tournées de véhicules qui vise à déterminer les séquences de clients visités par chaque véhicule, et la composante de planification qui vise à faciliter l'arrivée des véhicules selon des restrictions au niveau de la synchronisation temporelle. Auparavant, ces questions ont été abordées séparément. La combinaison de ces types de décisions dans une seule formulation mathématique et dans une même méthode de résolution devrait donc donner de meilleurs résultats que de considérer ces décisions séparément. Dans cette étude, nous proposons des solutions heuristiques qui tiennent compte de ces deux types de décisions simultanément, et ce, d'une manière complète et efficace. Les résultats de tests expérimentaux confirment la performance de la méthode proposée lorsqu’on la compare aux autres méthodes présentées dans la littérature. En effet, la méthode développée propose des solutions nécessitant moins de véhicules et engendrant de moindres frais de déplacement pour effectuer efficacement la même quantité de travail. Dans le contexte des systèmes logistiques urbains, nos résultats impliquent une réduction de la présence de véhicules dans les rues de la ville et, par conséquent, de leur impact négatif sur la congestion et sur l’environnement.
Resumo:
Au Canada, les chercheurs postdoctoraux font face à de nombreux défis qui découlent d’une carence dans leur prise en charge par le système d'éducation supérieure. Puisque leurs données ne sont pas gérées de façon centralisée, leur population et leur contribution au système de recherche demeurent imprécises. Cette étude présente une analyse bibliométrique sur la production scientifique des stagiaires postdoctoraux financés par les organismes subventionnaires fédéraux canadiens et de la province de Québec de 2004 à 2008 (N = 3 454). Les résultats montrent que ces postdoctorants ont en moyenne une productivité égale ou supérieure à celle des doctorants et des membres du corps professoral québécois et que leur impact scientifique est supérieur à celui des deux autres groupes. On observe aussi que les postdoctorants ayant réalisé leur stage aux États-Unis présentent des indicateurs de productivité et d’impact plus élevés.
Resumo:
Full Text / Article complet
Resumo:
Travail dirigé présenté à la Faculté des cycles supérieurs en vue de l’obtention du grade de Maîtrise ès sciences option expertise-conseil en soins infirmiers
Resumo:
En Amérique du Nord, les militants et les juristes ont longtemps cru que les avocats progressistes pourraient offrir des avantages tactiques importants aux mouvements sociaux. Cette perspective optimiste a cédé la place pendant les années 1970 à une attitude critique à l'égard des avocats et des litiges. Les chercheurs se sont interrogés sur l’efficacité d’assimiler les revendications politiques à des atteintes aux droits individuels, pour être ensuite présentées devant les tribunaux. Le litige était perçu comme source d’une influence négative qui favorise l’isolement et l’individualisme. De plus, les chercheurs ont remarqué qu’il y avait le potentiel pour les avocats militants – bien qu’ils soient bien intentionnés – d’exercer leur profession d’une manière qui pourrait donner un sentiment d’impuissance aux autres participants du mouvement social. Les premières versions de cette critique vont souvent assimiler la « stratégie juridique » avec le litige présenté devant les tribunaux judiciaires et géré par les avocats. Une réponse inspirante à cette critique a développée au début des années 2000, avec l'émergence d’un modèle de pratique que les chercheurs aux États-Unis ont nommé « law and organizing ». Des études normatives sur ce modèle offrent des arguments nuancés en faveur d’une pratique militante interdisciplinaire, partagée entre les avocats et les organisateurs. Ces études continuent à attribuer les risques d’individualisation et d’impuissance aux avocats et aux litiges. Selon ce modèle, au lieu de diriger la stratégie, les avocats travaillent en collaboration avec les travailleurs sociaux, les organisateurs et les citoyens pour planifier la stratégie du mouvement social, tout en favorisant l'autonomisation et la mobilisation de la collectivité. La présente thèse offre un examen critique de ce modèle, à travers l'une de ses tactiques bien connues: le traitement des problèmes juridiques individuels par les organisations militantes. La thèse examine les hypothèses fondatrices du modèle « law and organizing », en réinterprétant les problèmes d’individualisation et d’impuissance comme étant des enjeux reconnus dans de multiples disciplines, partout où les acteurs font de l’intervention sur une base individuelle afin de provoquer un changement systémique. La thèse soutient qu’un modèle de la pratique engagée du droit qui associe l'individualisation et l'impuissance exclusivement à la profession d'avocat risque de répondre de façon inadéquate aux deux problèmes. La recherche propose un modèle modifié qui met l'accent sur les options juridiques accessibles aux militants, tout en reconnaissant que la mobilisation et l'autonomisation sont des priorités qui sont partagées entre plusieurs disciplines, même si elles peuvent être traitées de façon particulière à l’intérieur de la profession juridique.
Resumo:
Les protéines amyloïdes sont retrouvées sous forme de fibres dans de nombreuses maladies neurodégénératives. En tentant d’élucider le mécanisme de fibrillation, les chercheurs ont découvert que cette réaction se fait par un phénomène de nucléation passant par des oligomères. Il semblerait que ces espèces soient la principale cause de la toxicité observée dans les cellules des patients atteints d’amyloïdose. C’est pourquoi un intérêt particulier est donc porté aux premières étapes d’oligomérisation. Dans ce mémoire, nous nous intéressons à une séquence d’acide aminé fortement hydrophobe de l’α-synucléine appelée composante non β -amyloïde (Non-Amyloid β Component ou NAC). Cette dernière est retrouvée sous forme de fibres dans les corps et les neurites de Lewy des patients atteints de la maladie de Parkinson. De plus, elle constitue une composante minoritaire des fibres impliquées dans la maladie d’Alzheimer. Nous avons observé les changements structuraux qui ont lieu pour le monomère, le dimère et le trimère de la séquence NAC de l’α-synucléine. Nous nous sommes aussi intéressés aux conséquences structurelles observées dans des oligomères hétérogènes qui impliqueraient, Aβ1−40. Pour cela nous utilisons des dynamiques moléculaires, d’échange de répliques couplées au potentiel gros-grain, OPEP. Nous constatons une disparition des hélices α au profit des feuillets β , ainsi que le polymorphisme caractéristique des fibres amyloïdes. Certaines régions se sont démarquées par leurs capacités à former des feuillets β . La disparition de ces régions lorsque NAC est combinée à Aβ laisse entrevoir l’importance de l’emplacement des résidus hydrophobes dans des structures susceptibles de former des fibres amyloïdes.
Resumo:
Inspired by the epistemological approach of Gilles-Gaston Granger and the sociological approach of Howard Becker, this thesis focuses on Quebec’s téléroman as a mean of social knowledge. Based on the theoretical conception of entry into adult life elaborated by various researchers such as the French sociologist Olivier Galland, this research aims to assess the sociological value of the Quebec’s téléroman as a form of representation of this phenomenon. To achieve this goal, we describe the entry into adult life of four characters from the téléroman Yamaska : Geoffroy Carpentier, Olivier Brabant, Théo Carpentier and Ingrid Harrisson. By applying the theories proposed by the French sociologist Olivier Galland to these characters, our goal is to study and describe the adequacy, or inadequacy, of such a theory when applied to the experiences of young adults today broadcast in the chosen téléroman. Through the characters of Yamaska, the study aims to see how the theory fits, or not, to the television series, and investigates whether it provides additional knowledge about the phenomenon of entry into adult life. This will help us determine the type of knowledge broadcast through this TV fiction, and focus on the influence exerted on the content and the way it is broadcast by the téléroman’s structure.