962 resultados para Analyse non paramétrique
Resumo:
Cette thèse de doctorat a pour objectif d’examiner de quelles manières le rôle parental influence la consommation d’alcool des femmes et des hommes et plus précisément, si les relations dynamiques entre le rôle parental, les circonstances au sein desquelles il est mis en acte et les contextes immédiats de consommation permettent d’expliquer les différentes façons individuelles de consommer de l’alcool. Cette étude repose sur le constat qu’en alcoologie, il existe une tendance à considérer l’acteur et l’action comme étant détachés de leur cadre social immédiat. Conséquemment, il existe des limites importantes aux modèles permettant d’expliquer les mécanismes par lesquels les rôles sociaux influencent la consommation d’alcool. Afin d’avoir une meilleure compréhension sociologique de la consommation d’alcool, cette thèse propose un cadre théorique qui insiste fortement sur la nécessité de tenir compte de la situation. L’acteur agit en fonction de certaines circonstances (perception de conflit de rôles) au sein desquelles son rôle est mis en acte. L’action de boire est dépendante du contexte (caractéristiques spatiales, temporelles, symboliques et relationnelles) au sein duquel l’action se déroule. L’hypothèse générale de recherche stipule que pour comprendre la relation entre les rôles et la consommation d’alcool, il faut situer à la fois l’acteur et l’action. La validité empirique du cadre théorique a été testée à partir d’une analyse quantitative des données de l’enquête GENACIS Canada (GENder Alcohol and Culture: an International Study) ainsi que des données de l’Enquête sur les Toxicomanies au Canada. La présentation des résultats des analyses prend la forme de trois articles soumis pour publication. Les données analysées révèlent le bien-fondé du cadre de théorique proposé. Situer l’action a permis de constater que les contextes de consommation sont un médiateur de la relation entre le rôle parental et la consommation d’alcool et plus spécifiquement, que les parents boivent moins fréquemment de façon excessive que les non-parents parce qu’ils boivent dans des lieux différents. Situer l’action a aussi révélé que les femmes et les hommes ont tendance à adopter des comportements de boire qui s’accordent au contexte immédiat, plutôt qu’à la position qu’ils occupent. Par contre, observer les circonstances individuelles au sein desquelles le rôle parental est mis en acte n’a pas permis d’améliorer notre compréhension de la relation à l’étude. Les évidences scientifiques apportées par cette thèse de doctorat ouvrent la porte au développement de mesures préventives environnementales qui visent le contexte de l’action plutôt que l’acteur, pour limiter la consommation excessive d’alcool des femmes et des hommes.
Resumo:
Selon des thèses développées au cours des années 1990 et 2000, le développement économique constitue à la fois la source et la solution aux problèmes environnementaux. Au sujet des forêts, les transitions forestières (c’est-à-dire le passage de la déforestation à la reforestation) documentées dans certains pays développés seraient causées par des dynamiques universelles intrinsèques au développement et à la modernisation des sociétés. Nos travaux ont porté sur l’application de cette vision optimiste et controversée à l’évolution des superficies forestières en Thaïlande. S’appuyant sur une recension de la littérature, sur des données secondaires ainsi que nos travaux de terrain dans la région de Phetchabun, la thèse offre les apports suivants. Elle démontre que contrairement à l’idée répandue en Thaïlande, le ralentissement de la déforestation a été suivi par une expansion forestière substantielle entre environ 1995 et 2005. Ce regain forestier est lié à la disparition presque complète de l’expansion agricole, à l’établissement de plantations sylvicoles et, surtout, à l’abandon de terres agricoles. Cet abandon agricole découle d’abord et avant tout de la faible et incertaine rentabilité de l’agriculture dans certaines zones non irriguées. Ce phénomène s’explique, entre autres, par la dégradation des sols et par l’incapacité des agriculteurs à contrer l’impact des transformations économiques internes et externes à la Thaïlande. L’accroissement de la pression de conservation n’a pu contribuer à l’expansion forestière que dans certains contextes (projets de reforestation majeurs appuyés par l’armée, communautés divisées, terres déjà abandonnées). Sans en être une cause directe, l’intensification agricole et la croissance des secteurs non agricoles ont rendu moins pénibles la confiscation et l’abandon des terres et ont permis que de tels phénomènes surviennent sans entraîner d’importants troubles sociaux. Dans un contexte d’accroissement des prix agricoles, notamment celui du caoutchouc naturel, une partie du regain forestier aurait été perdu depuis 2005 en raison d’une ré-expansion des surfaces agricoles. Cela illustre le caractère non permanent de la transition forestière et la faiblesse des mesures de conservation lorsque les perspectives de profit sont grandes. La thèse montre que, pour être robuste, une théorie de la transition forestière doit être contingente et reconnaître que les variables macro-sociales fréquemment invoquées pour expliquer les transitions forestières (ex. : démocratisation, intensification agricole, croissance économique) peuvent aussi leur nuire. Une telle théorie doit également prendre en compte des éléments d’explication non strictement économiques et souvent négligés (menaces à la sécurité nationale, épuisement des terres perçues comme arables et libres, degré d’attachement aux terres et capacité d’adaptation et résilience des systèmes agricoles). Finalement, les écrits sur la transition forestière doivent reconnaître qu’elle a généralement impliqué des impacts sociaux et même environnementaux négatifs. Une lecture de la transition forestière plus nuancée et moins marquée par l’obsession de la seule reforestation est seule garante d’une saine gestion de l’environnement en respect avec les droits humains, la justice sociale et le développement durable.
Resumo:
La santé des enfants demeure une question prioritaire en Afrique sub-saharienne. Les disparités en matière de mortalité entre pays et au sein des pays persistent et se sont fortement accrues durant la dernière décennie. En dépit de solides arguments théoriques voulant que les variables contextuelles soient des déterminants importants de la santé des enfants, ces facteurs, et particulièrement les influences du contexte local, ont été étudiées beaucoup moins souvent que les caractéristiques individuelles. L'objectif principal de la présente thèse est d’identifier les déterminants individuels et contextuels associés à la mortalité des enfants de moins de 5 ans en Afrique sub-saharienne. L’analyse systématique est basée sur les données les plus récentes des enquêtes démographiques et de santé (DHS/EDS). Deux questions spécifiques sont examinées dans cette thèse. La première évalue la mesure dans la quelle le contexte local affecte la mortalité infanto-juvénile, net des caractéristiques individuelles. La seconde question est consacrée à l’examen de l’effet du faible poids à la naissance sur le risque de décès avant 5 ans. Par rapport à la première question, les analyses multi-niveaux confirment pour plusieurs pays étudiés l’importance simultanée de l’environnement familial et du contexte local de résidence dans l’explication des différences de mortalité infanto-juvénile. Toutefois, par comparaison au contexte familial, l’ampleur de l’effet de l’environnement local paraît assez modeste. Il apparaît donc que le contexte familial reste un puissant déterminant de la mortalité des enfants de moins de 5 ans en Afrique sub-saharienne. Les résultats indiquent en outre que certains attributs du contexte local de résidence influencent le risque de décès des enfants avant 5 ans, au-delà des facteurs individuels dans plusieurs pays. Cette thèse confirme l’effet contextuel de l’éducation sur la mortalité des enfants. Cet effet s’ajoute, dans certains pays, à l'effet positif du niveau individuel d’éducation de la mère sur la survie de l'enfant. Les résultats montrent aussi que le degré d’homogénéité ethnique de la localité influence fortement la probabilité de mourir avant 5 ans dans certains pays. Globalement, les résultats de cette thèse suggèrent que le défi de réduire la mortalité des enfants va au-delà des stratégies visant uniquement les facteurs individuels, et nécessite une meilleure compréhension de l’influence des facteurs contextuels. Par rapport à la deuxième question, les résultats montrent également que les facteurs individuels restent aussi très importants dans l’explication des différences de mortalité des enfants dans plusieurs pays étudiés. Nos résultats indiquent que les différences de mortalité selon le poids à la naissance sont significatives dans tous les pays inclus dans l’analyse. Les enfants nés avec un faible poids (moins de 2500 grammes) courent presque 2 à 4 fois plus de risques de mourir au cours des cinq premières années de vie que les enfants de poids normal, même après correction pour l’hétérogénéité non observée. Ce résultat suggère qu’en plus des mesures visant à réduire la pauvreté et les inégalités de revenus, la réduction de l’incidence du faible poids à la naissance pourrait apporter une contribution majeure aux Objectifs du Millénaire pour le développement; spécialement comme une stratégie efficace pour réduire le niveau de mortalité parmi les enfants de moins de cinq ans.
Resumo:
Rapport de stage présenté à la Faculté des arts et sciences en vue de l'obtention du grade de Maîtrise ès sciences (M. Sc.) en criminologie
Resumo:
Le but de cette thèse est de raffiner et de mieux comprendre l'utilisation de la méthode spectroscopique, qui compare des spectres visibles de naines blanches à atmosphère riche en hydrogène (DA) à des spectres synthétiques pour en déterminer les paramètres atmosphériques (température effective et gravité de surface). Notre approche repose principalement sur le développement de modèles de spectres améliorés, qui proviennent eux-mêmes de modèles d'atmosphère de naines blanches de type DA. Nous présentons une nouvelle grille de spectres synthétiques de DA avec la première implémentation cohérente de la théorie du gaz non-idéal de Hummer & Mihalas et de la théorie unifiée de l'élargissement Stark de Vidal, Cooper & Smith. Cela permet un traitement adéquat du chevauchement des raies de la série de Balmer, sans la nécessité d'un paramètre libre. Nous montrons que ces spectres améliorés prédisent des gravités de surface qui sont plus stables en fonction de la température effective. Nous étudions ensuite le problème de longue date des gravités élevées pour les DA froides. L'hypothèse de Bergeron et al., selon laquelle les atmosphères sont contaminées par de l'hélium, est confrontée aux observations. À l'aide de spectres haute résolution récoltés au télescope Keck à Hawaii, nous trouvons des limites supérieures sur la quantité d'hélium dans les atmosphères de près de 10 fois moindres que celles requises par le scénario de Bergeron et al. La grille de spectres conçue dans ces travaux est ensuite appliquée à une nouvelle analyse spectroscopique de l'échantillon de DA du SDSS. Notre approche minutieuse permet de définir un échantillon plus propre et d'identifier un nombre important de naines blanches binaires. Nous déterminons qu'une coupure à un rapport signal-sur-bruit S/N > 15 optimise la grandeur et la qualité de l'échantillon pour calculer la masse moyenne, pour laquelle nous trouvons une valeur de 0.613 masse solaire. Finalement, huit nouveaux modèles 3D de naines blanches utilisant un traitement d'hydrodynamique radiative de la convection sont présentés. Nous avons également calculé des modèles avec la même physique, mais avec une traitement standard 1D de la convection avec la théorie de la longueur de mélange. Un analyse différentielle entre ces deux séries de modèles montre que les modèles 3D prédisent des gravités considérablement plus basses. Nous concluons que le problème des gravités élevées dans les naines blanches DA froides est fort probablement causé par une faiblesse dans la théorie de la longueur de mélange.
Resumo:
La question de recherche à la base de cette étude soulève le point de la nature paradoxale du canon de représentation égyptien qui démontre, simultanément, une certaine rigidité dans l’application de règles stylistiques et iconographiques établies, particulièrement dans l’art non commandité par l’État, et des preuves de transformation et d’intégration de motifs nouveaux. Partant de cette problématique, l’étude vise à identifier les mécanismes par lesquels ce canon permet, à la fois, l’innovation et le maintien d’une certaine tradition. L’approche est de nature double et consiste tout d’abord à identifier de grandes tendances et discontinuités stylistiques et iconographiques sur les bols de faïence du Moyen au Nouvel Empire. De plus, elle tente de déterminer si les transformations d’ordre sociopolitique et idéologique, survenant à ces périodes, peuvent être lues dans les variations stylistiques et iconographiques trouvées sur les bols de faïence. Après une description du champ conceptuel de la « représentation » en contexte égyptien, l’auteur effectue l’analyse iconographique exhaustive de ce qui constitue l’apport majeur de son étude, un corpus de 500 bols et fragments de faïence provenant de divers sites égyptiens du Moyen au Nouvel Empire. Les données ont été traitées par le biais de la méthode d’analyse iconologique proposée par Panofsky, qui lui permet de dévoiler un grand nombre de continuités et de transformations d’ordre stylistique et iconographique pour les différentes périodes. Plusieurs facteurs semblent avoir été à l’origine de ces transformations, dont la fluctuation entre un contexte de centralisation et de décentralisation politique de l’État, ainsi que l’intégration de motifs étrangers (proche-orientaux et égéens) résultant d’un contact accru entre l’Égypte et les régions voisines. De plus, les transformations idéologiques apportées par le règne d’Akhénaton et par la « contre-réforme » idéologique à la période ramesside, semblent avoir également contribué à des innovations au sein du canon, même si ce dernier maintient une certaine continuité légitimée par le pouvoir étatique. Le canon de représentation, devient ainsi une forme de langage dont l’État se sert et qui, parfois malgré lui, se transforme et fluctue selon les réalités des différentes périodes.
Resumo:
Le taux d’homicide est un bon indicateur de la violence générale dans un pays. De plus, il s’agit du crime le mieux mesuré car il est rare qu’un homicide passe inaperçu. De nombreux auteurs ont donc cherché à expliquer ce qui pouvait influencer la variation du taux d’homicide dans les pays du monde. Leurs résultats ont mis à jour certains prédicteurs qui influenceraient le taux d’homicide dans les pays du monde. Il s’agit notamment du niveau de vie mesuré à l’aide du PIB par habitant, de l’inégalité, mesuré à l’aide du coefficient GINI ou encore des facteurs démographiques. Ces facteurs criminogènes sont tous de niveau macroscopique sur lesquels il est difficile d’agir. Ce mémoire intégrera au modèle, en plus des prédicteurs déjà connus, des variables plus proximales (consommation d’alcool, de drogue, présence de criminalité organisée, corruption, taux de criminalité, etc.) afin de voir s’ils pourraient également influencer la variation du taux d’homicide. Cette étude se concentrera sur le taux d’homicide de 41 pays européens. Une sélection de nos variables sera effectuée à l’aide d’analyses bivariées (corrélation, corrélation partielle) avant d’intégrer les variables restantes dans plusieurs modèles de régression multiple qui permettra in fine d’isoler les variables ayant une réelle influence sur le taux d’homicide. Les résultats indiquent que les facteurs proximaux ont une réelle influence sur le taux d’homicide. En effet, non seulement deux variables proximales (l’abus de la consommation d’alcool, et le pourcentage de personne s’étant déclaré victime de cambriolage) sont, après avoir pris en considération de nombreuses variables de niveau macroscopique, significativement liées au taux d’homicide mais en plus, le fait d’intégrer ce type de variables dans un modèle de régression multiple fait augmenter la variance expliquée. Ces variables de type proximales ont donc une grande importance dans l’explication de la variation du taux d’homicide.
Resumo:
Cette étude aborde le thème de l’utilisation des modèles de mélange de lois pour analyser des données de comportements et d’habiletés cognitives mesurées à plusieurs moments au cours du développement des enfants. L’estimation des mélanges de lois multinormales en utilisant l’algorithme EM est expliquée en détail. Cet algorithme simplifie beaucoup les calculs, car il permet d’estimer les paramètres de chaque groupe séparément, permettant ainsi de modéliser plus facilement la covariance des observations à travers le temps. Ce dernier point est souvent mis de côté dans les analyses de mélanges. Cette étude porte sur les conséquences d’une mauvaise spécification de la covariance sur l’estimation du nombre de groupes formant un mélange. La conséquence principale est la surestimation du nombre de groupes, c’est-à-dire qu’on estime des groupes qui n’existent pas. En particulier, l’hypothèse d’indépendance des observations à travers le temps lorsque ces dernières étaient corrélées résultait en l’estimation de plusieurs groupes qui n’existaient pas. Cette surestimation du nombre de groupes entraîne aussi une surparamétrisation, c’est-à-dire qu’on utilise plus de paramètres qu’il n’est nécessaire pour modéliser les données. Finalement, des modèles de mélanges ont été estimés sur des données de comportements et d’habiletés cognitives. Nous avons estimé les mélanges en supposant d’abord une structure de covariance puis l’indépendance. On se rend compte que dans la plupart des cas l’ajout d’une structure de covariance a pour conséquence d’estimer moins de groupes et les résultats sont plus simples et plus clairs à interpréter.
Resumo:
L’agent régulateur des temps sociaux de la famille québécoise a été la religion catholique pendant des décennies. Les mouvements d’après-guerre et la Révolution tranquille, ont amené un changement de paradigme avec la laïcisation des institutions et la multiplication des programmes sociaux de l’État-providence. Pour cerner l’importance de ce changement, nous avons utilisé la clef analytique de Léon Gérin pour produire une analyse comparative entre deux familles à deux époques : en 1886 et en 2010. Or, au moment où l’État est de plus en plus présent dans toutes les sphères de la vie de la famille tout en leur laissant une autonomie et une liberté, la population se montre de plus en plus sceptique envers les institutions étatiques. Un fossé s’est créé entre la société officielle, celle du social, des institutions, et la société officieuse, celle de la culture populaire qui agit à partir de l’esprit de corps de son groupe, virtuel ou non. La crise de confiance des gens envers les institutions annonce un nouveau changement de paradigme. La rationalité qui a été le moteur de la modernité fait graduellement place à l’émotionnel et à la valeur du temps présent. Le travail, agent régulateur qui comblait les besoins matériels à la modernité, serait remplacé progressivement par des besoins immatériels devenant l’agent régulateur des temps sociaux de la famille.
Resumo:
De nombreuses études concluent que la charge mécanique supportée par le genou, qu’elle soit reliée à l’obésité, aux sports intenses, à une altération biomécanique des structures de l’articulation ou à une exposition à des charges lourdes durant les activités occupationnelles, est considérée comme un facteur de risque important au développement de la gonarthrose. La gonarthrose reliée au travail a été le sujet de nombreuses études et plusieurs d’entre elles ont rapporté une prévalence accrue de la gonarthrose chez les travailleurs de certains domaines en particulier, comme la construction, la pose de plancher, la peinture, l’exploitation minière, l’agriculture et le travail en atelier et en milieu de la santé. Les personnes qui travaillent dans ces métiers sont exposées à des positions ou des activités nuisibles, comme travailler à genoux ou accroupi, monter des escaliers ou des échelles, transporter des changes lourdes et marcher de façon prolongée. Ces gestes surchargent l’articulation du genou, ce qui cause des modifications aux structures de l’articulation du genou ou aux adaptations neuromusculaires de patron de mouvement du genou. Ces modifications structurelles et adaptations neuromusculaires peuvent apporter des changements cinématiques à la marche qui peuvent initier la gonarthrose ou contribuer à sa progression. L’objectif principal de la présente étude était d’analyser l’effet d’une surcharge mécanique sur l’articulation fémoro-tibiale (AF-T) subie au travail lors d’une tâche de marche et comparer le patron cinématique de l’articulation fémoro-tibiale des travailleurs exposés à une surcharge mécanique à celui des travailleurs non exposés. Vingt-quatre travailleurs exposés à une surcharge mécanique et neuf travailleurs non exposés ont participé à l’étude. Les données cinématiques de la marche ont été enregistrées au niveau du genou dans des conditions cliniques en utilisant un système de suivi du mouvement électromagnétique. Les paramètres suivant ont été extraits et utilisés pour la comparaison des groupes : l’angle maximum lors du contact initial, l’angle ii maximum de flexion durant la réponse à la charge, l’angle minimum au moment de l’appui unipodal et l’étendue max-min du cycle. La comparaison des groupes pour les variables cliniques et cinématiques a été effectué par l’utilisation de tests-t bilatéraux (« Student-t tests ») et de tests ANCOVA utilisant le poids et la vitesse comme covariables. Les travailleurs exposés à une surcharge mécanique présentaient un plus grand angle de flexion de l’articulation fémoro-tibiale au contact initial, durant la réponse au chargement et à la phase unipodale et ils ont démontré une étendue d’angle moindre que les travailleurs non exposés. Nous croyons que les données cinématiques de la marche peuvent donner des idées sur les facteurs biomécaniques qui pourraient prédisposer les travailleurs au développement ou à la progression de la gonarthrose. Une meilleure compréhension de ces facteurs pourrait être un premier pas vers le développement d’une intervention plus efficace pour cette population.
Resumo:
Ce mémoire propose une analyse sémio-narrative d’un corpus de dix-neuf contes merveilleux recueillis auprès des conteurs canadiens-français et canadiens-hurons par l’anthropologue Charles-Marius Barbeau, au début du XXe siècle. Après avoir passé en revue les principales théories dans l’approche sémiotique du conte à partir de Vladimir Propp jusqu’à nos jours, nous avons procédé à une étude narrative du corpus selon la méthode du grand folkloriste russe : cela nous a permis d’en montrer la valeur exceptionnelle mais aussi les limites. Nous avons constaté ainsi que le travail sur un corpus inédit peut mener à l’identification de nouveaux éléments dans la structure du conte merveilleux. En poursuivant nos recherches sur les dix-neuf contes recueillis par Barbeau, nous sommes passée du schéma linéaire, syntagmatique de Propp aux modèles logiques de ses continuateurs, particulièrement celui élaboré par Guy Laflèche. Nos analyses ont mis en évidence non seulement le fait que la structure en miroir est un modèle valide auquel une partie des contes merveilleux se plie parfaitement (d’emblée l’exclusivité du schéma de Propp est mise en question, sinon infirmée), mais aussi que tout conte merveilleux est exceptionnellement organisé, structuré (ce qui confirme la théorie de Claude Bremond conformément à laquelle le récit narratif est une alternance de dégradations et d’améliorations). Enfin, la dernière partie du mémoire est une analyse sémio-discursive de notre corpus qui, au lieu d’être une simple accumulation de listes de mots, d’expressions et de figures, tente d’aborder la structure idéologique, grâce à une étude en parallèle d’un conte du corpus et de deux versions littéraires.
Resumo:
Contexte : La fibrillation auriculaire est commune chez les insuffisants cardiaques. L’efficacité des stratégies de contrôle de la fréquence et du rythme s’équivalent. Nous avons comparé l’impact économique des deux stratégies de traitement chez les patients avec fibrillation auriculaire et insuffisance cardiaque. Méthode : Dans cette sous-étude de l’essai Atrial Fibrillation and Congestive Heart Failure, la consommation de soins de santé des patients Québécois ainsi que leurs coûts ont été quantifiés grâce aux banques de données de la Régie de l’assurance-maladie du Québec et de l’Ontario Case Costing Initiative. Résultats : Trois cent quatre patients ont été inclus, âgés de 68±9 ans, fraction d’éjection de 26±6%. Les caractéristiques de base étaient bien réparties entre le contrôle du rythme (N=149) et de la fréquence (N=155). Les patients soumis au contrôle de la fréquence ont eu moins de procédures cardiovasculaires (146 versus 238, P<0.001) en raison du plus faible nombre de cardioversions et de moindres coûts reliés aux antiarythmiques (48 $±203 versus 1319 $±1058 par patient, P<0.001). Ces différences ont été compensées par un surplus de dépenses dues aux hospitalisations non-cardiovasculaires, aux dispositifs cardiaques implantables et aux médicaments non-cardiovasculaires dans le groupe du contrôle de la fréquence. Au total, les coûts par patient avec les stratégies du contrôle de la fréquence et du rythme s’élèvent à 78 767 $±79 568 et 72 764 $±72 800 (P=0.49). Interprétation : Chez les patients avec fibrillation auriculaire et insuffisance cardiaque, le contrôle de la fréquence est associé avec moins de procédures cardiovasculaires et une pharmacothérapie cardiovasculaire moins coûteuse. Toutefois, les coûts associés aux arythmies représentent moins de la moitié des dépenses de santé et le total des coûts s’équilibre entre les 2 stratégies.
Resumo:
Ce mémoire consiste en une analyse des stratégies de l’offre et de la demande de l’industrie québécoise de la production télévisuelle francophone pour la jeunesse et plus précisément, pour l’auditoire des 12-17 ans. Cette industrie tendrait à investir davantage dans l’importation que dans la production d’émissions pour cet auditoire, dû à la faible écoute de ses productions par leur auditoire cible. Afin de mieux saisir les enjeux politiques, économiques et sociaux qui entourent l’industrie de la production télévisuelle pour la jeunesse, nous proposons d’explorer et de comparer l’offre télévisuelle destinée aux 12-17 ans et leur consommation télévisuelle. Cette analyse quantitative et statistique de l’offre et de la consommation se fait en trois étapes : (i) l’analyse de la structure de réception (émissions à succès, écoute des filles et des garçons, temps passé à l’écoute), (ii) l’analyse de la structure de programmation (mode de diffusion, genres télévisuels, origine des émissions, thématiques des émissions), et (iii) l’analyse de la structure thématique (thématiques associées aux épisodes et des personnages). De ces analyses, divers constats apparaissent. Tout d’abord, les jeunes consomment ce que les télédiffuseurs diffusent à leur intention, malgré l’accès limité à cette offre. De plus, plusieurs tactiques semblent être mises en œuvre afin de rentabiliser la diffusion de ces émissions, principalement la rediffusion. Finalement, ces émissions destinées aux adolescents se distinguent de celles offertes au grand public, non seulement par le public qu’elles tentent de rejoindre, mais aussi par les thématiques qu’elles abordent et la manière dont elles les abordent.
Resumo:
Lors d'une intervention conversationnelle, le langage est supporté par une communication non-verbale qui joue un rôle central dans le comportement social humain en permettant de la rétroaction et en gérant la synchronisation, appuyant ainsi le contenu et la signification du discours. En effet, 55% du message est véhiculé par les expressions faciales, alors que seulement 7% est dû au message linguistique et 38% au paralangage. L'information concernant l'état émotionnel d'une personne est généralement inférée par les attributs faciaux. Cependant, on ne dispose pas vraiment d'instruments de mesure spécifiquement dédiés à ce type de comportements. En vision par ordinateur, on s'intéresse davantage au développement de systèmes d'analyse automatique des expressions faciales prototypiques pour les applications d'interaction homme-machine, d'analyse de vidéos de réunions, de sécurité, et même pour des applications cliniques. Dans la présente recherche, pour appréhender de tels indicateurs observables, nous essayons d'implanter un système capable de construire une source consistante et relativement exhaustive d'informations visuelles, lequel sera capable de distinguer sur un visage les traits et leurs déformations, permettant ainsi de reconnaître la présence ou absence d'une action faciale particulière. Une réflexion sur les techniques recensées nous a amené à explorer deux différentes approches. La première concerne l'aspect apparence dans lequel on se sert de l'orientation des gradients pour dégager une représentation dense des attributs faciaux. Hormis la représentation faciale, la principale difficulté d'un système, qui se veut être général, est la mise en œuvre d'un modèle générique indépendamment de l'identité de la personne, de la géométrie et de la taille des visages. La démarche qu'on propose repose sur l'élaboration d'un référentiel prototypique à partir d'un recalage par SIFT-flow dont on démontre, dans cette thèse, la supériorité par rapport à un alignement conventionnel utilisant la position des yeux. Dans une deuxième approche, on fait appel à un modèle géométrique à travers lequel les primitives faciales sont représentées par un filtrage de Gabor. Motivé par le fait que les expressions faciales sont non seulement ambigües et incohérentes d'une personne à une autre mais aussi dépendantes du contexte lui-même, à travers cette approche, on présente un système personnalisé de reconnaissance d'expressions faciales, dont la performance globale dépend directement de la performance du suivi d'un ensemble de points caractéristiques du visage. Ce suivi est effectué par une forme modifiée d'une technique d'estimation de disparité faisant intervenir la phase de Gabor. Dans cette thèse, on propose une redéfinition de la mesure de confiance et introduisons une procédure itérative et conditionnelle d'estimation du déplacement qui offrent un suivi plus robuste que les méthodes originales.
Resumo:
Rapport d'analyse d'intervention présenté à la Faculté des arts et sciences en vue de l'obtention du grade de Maîtrise ès sciences (M. Sc.) en psychoéducation.