494 resultados para äänen prosessointi
Resumo:
Les calculs statistiques ont été effectués à l'aide du logiciel SPSS.
Resumo:
Dans les écoles primaires québécoises, les cours d'arts font partie des domaines d’apprentissage obligatoires. Toutefois, les effets de l’apprentissage des arts sur les jeunes élèves demeurent mal connus puisque d’une part, l'art est fréquemment perçu comme une discipline de deuxième ordre et d’autre part, des programmes à volet artistique voient encore le jour dans certaines écoles. L’objectif de l’étude est de déterminer si les élèves de 4ième, 5ième et 6ième années fréquentant une école à volet artistique développent davantage d'habiletés particulières liées directement à leur intelligence émotionnelle (IE) comparativement à des élèves fréquentant une école à programme régulier. Une méthodologie reposant sur un devis quasi expérimental avec groupe témoin non équivalent est privilégiée. Les scores d’IE ont été mesurés à l’aide de questionnaires complétés par les élèves, leur enseignant ainsi que leurs parents afin de trianguler les données. Dans un premier temps, les résultats obtenus auprès de l’ensemble de l’échantillon montrent que selon la perception des enseignants, les élèves suivant des cours d’art en parascolaire ont une IE plus élevée que les élèves qui n’en suivent pas. Toutefois, la fréquentation d’une école proposant un programme artistique ne semble pas avoir d'incidence sur le développement de l'IE puisque les résultats obtenus dans le cadre de cette étude montrent que les élèves inscrits à une école à vocation artistique ont une IE inférieure à celle des élèves provenant d’un programme régulier. Ces résultats contradictoires à l’hypothèse de départ sont discutés à la lumière de la littérature scientifique disponible, ainsi que des forces et des limites de la présente recherche.
Resumo:
Doctorat réalisé en cotutelle avec l’Université Paris I- Panthéon Sorbonne.
Resumo:
Istanbul est pour Pamuk ce que Paris est pour Baudelaire : une source inépuisable d’inspiration et de spleen. Or, si le poète est davantage conscient de ses états d’âme, le romancier turc le plus lu des deux côtés du Bosphore ne sait pas toujours que tout discours sur le monde extérieur est un discours sur lui-même. Dans un premier temps, il se complait dans l’hüzün, ce sentiment collectif et généralisé de mélancolie, apparemment intrinsèque à la ville et ses ruines, traces tangibles de la décadence d’un grand empire dont les héritiers peinent à se relever. Il n’en est pourtant rien, car, au fur à mesure que Pamuk suit les traces des écrivains et artistes étrangers de passage à Istanbul, il s’aperçoit que l’apparente mélancolie des ruines n’est qu’une strate parmi d’autres, c’est-à-dire glissante, malléable et fluide, tout dépend de l’emplacement et du point de vue de l’observateur, dans une ville palimpseste qui cache dans ses entrailles toutes les altérités. En suivant les traces de l’altérité, Pamuk découvre la nature hétérogène de sa ville et de lui-même et s’aperçoit que la mélancolie collective est fabriquée de toutes pièces par un certain récit socio-politique et une certaine classe sociale. En effet, c’est en traquant les reflets de son double que le romancier prend soudainement conscience du caractère fuyant de sa propre subjectivité, mais aussi de celui du monde et des autres. Si tel est le cas, l’espace urbain qui préoccupe et obsède Pamuk n’est qu’un reflet de son esprit et l’accès à la présence pleine s’avère une illusion. Comme si, l’inquiétante étrangeté de son inconscient, en lui dévoilant le côté insaisissable du monde et du soi, l’encourageait à remettre en cause un certain nombre d’opinions acquises, non seulement à l’intérieur de sa propre culture, mais aussi dans la culture de son double européen. Car si tout est fluide et malléable, il n’y a pas raison de ne pas tout questionner, incluant la tradition et la politique, cette dernière faisant de lui, « une personne bien plus politique, sérieuse et responsable que je ne le suis et ne souhaitais l’être ». Ainsi, Istanbul, souvenir d’une ville questionne le rapport entre la subjectivité et les strates hétérogènes d’Istanbul, pour aboutir à un constat déconstructiviste : tout n’est que bricolage et substitut du sens là où il brille par son absence. S’il brille par son absence, il en est de même loin d’Istanbul, dans une maison périphérique appelée La Maison du Silence à l’intérieur de laquelle les personnages soliloques et par moments muets, se questionnent sur le rapport entre la tradition et la modernité, le centre et la périphérie, l’Occident et l’Orient, sans oublier le caractère destructeur et éphémère du temps, mais aussi de l’espace. Et enfin, Le Musée de l’Innoncence, cette oeuvre magistrale où l’amour joue (en apparence seulement) le rôle principal, n’est en fait que l’étrange aboutissement de la quête obsessessive et narcissique du personnage principal vers un autre espace-temps, quelque part entre la réalité et la fiction, entre l’Est et l’Ouest, entre la tradition et la modernité, cet entre-deux qui campe indéniablement Pamuk parmi les meilleurs romanciers postmodernes de notre époque. Or, pour y parvenir, il faut au préalable un bouc-émissaire qui, dans le cas de Pamuk, représente presque toujours la figure du féminin.
Resumo:
"Des spécialistes de la Cour suprême du Canada et de la Cour fédérale du Canada, Bill MURRAY et Gary PINDER, ont entrepris d’explorer les moyens par lesquels ces institutions pourraient prendre le virage vers l’électronique pour leurs échanges et leur gestion de l’information. Deux projets ont initialement été présentés au programme Gouvernement en direct. Ces projets ont progressivement convergés jusqu’au point de n’en former qu’un seul, celui décrit dans le « Document de travail : Modèle de fournisseur de services de dépôt électronique ». Un document, avertissent ses auteurs, qui ne vise pas l’endossement d’un modèle particulier, mais plutôt l’identification des voies par lesquelles un système cohérent de dépôt électronique pourrait être mis en place au Canada. D'emblée, quatre éléments du modèle proposé apparaissent particulièrement remarquables : il offre un cadre d’ensemble plutôt qu’un projet isolé ; il s’appuie sur l’utilisation de normes techniques, « Standard as Key Enabler » écrivent-ils ; il met à profit l’entreprise privée, un partenaire capable de trouver les marchés et de les développer ; il prévoit enfin, et ce n’est pas le moindre de ses mérites, la création d’un environnement compétitif pour le dépôt électronique. Selon nous, la voie qu’ils ont tracée peut être empruntée. Ce n’est pas dire qu’il faille accepter, tels quels, tous les éléments du projet sans examiner d’autres orientations ou poursuivre certaines réflexions. Mais, dans l’ensemble, la direction est juste et nous devrions nous y engager. Nous avons choisi de suggérer des orientations, et elles convergent presque toujours avec celles adoptées par les auteurs du document de travail. Nous ne mentionnons ici que la plus centrale d’entre elles. Le projet de mettre en place un système cohérent de dépôt électronique confirme s’il était nécessaire le besoin maintes fois ressenti d’un conseil canadien de l’information juridique. Un tel conseil pourrait mener des consultations et procéder à l’adoption des normes techniques qui manquent aujourd’hui cruellement au monde juridique canadien. Le présent projet et la réflexion qu’il nous impose nous offrent peut-être l’occasion de nous doter de cet outil qui non seulement pourrait clarifier le cadre du dépôt électronique, mais aussi d’élaborer les autres normes et lignes de conduite nécessaires à notre domaine. Il reste à inviter la magistrature à examiner attentivement le projet avancé par MURRAY et PINDER. Il esquisse une approche audacieuse et nouvelle pour que nos institutions judiciaires évoluent vers une utilisation encore plus efficiente des nouveaux moyens technologiques. L’influence et l’appui éclairé de la magistrature sont essentiels au démarrage d’un tel projet. D’autres aussi auront à examiner les mérites du modèle proposé, notamment les responsables administratifs des grandes institutions judiciaires canadiennes, nous sommes certains qu’ils sauront eux aussi reconnaître les possibilités que recèle ce projet."
Resumo:
"Selon la théorie officielle de l’interprétation des lois, le législateur est l’émetteur d’un message, le texte de loi son support et l’interprète son récepteur. Le contenu du message transmis, c’est-à-dire le sens de la loi, est entièrement déterminé avant même que l’interprète n’en prenne connaissance; il repose dans le texte, en attente d’être découvert. Le rôle du juge se résume donc à lire le texte et à l’appliquer, certains diront presque mécaniquement, aux faits qui lui sont soumis. En fait, sa mission consiste à rechercher l’intention souveraine du législateur et à lui donner effet. Il est de plus en plus reconnu que la doctrine officielle de l’interprétation des lois dresse de la fonction juridictionnelle un portrait à la fois réducteur et trompeur. À tout le moins, on admet généralement que l’interprétation de la loi est une activité qui implique que le juge fasse des choix en fonction de ses propres valeurs et croyances. Mise de l’avant par Friedrich Müller, la théorie structurante du droit va plus loin en posant le juriste comme le véritable créateur de la norme juridique. Plus conforme à la réalité, ce modèle reconnaît au juge une liberté accrue, mais le contraint à faire preuve d’une plus grande transparence et à assumer la responsabilité de ses choix. Le présent texte a pour objet de démontrer les avantages de remplacer la conception traditionnelle de l’interprétation des lois par une conception structurante du droit. "
Resumo:
Les matériaux conjugués sont de nos jours très utilisés dans de nombreuses applications ainsi qu’en recherche. L’enchainement des liaisons π-σ-π permet la délocalisation des électrons et d’obtenir différentes propriétés comme la conduction, la fluorescence, la chélation, etc. Ainsi, de nombreux dispositifs utilisent ces caractéristiques en vue d’obtenir de nouveaux matériaux révolutionnaires comme les cellules solaires, les transistors à effet de champs, les dispositifs électrochromiques, etc.. Les dispositifs électrochromiques font partie des dispositifs en vogue. Ils sont capables de changer de couleur selon le potentiel électrique appliqué. Ils se distinguent par la simplicité du mode de conception et ils ne nécessitent pas de fonctionner dans des conditions drastiques comme une atmosphère contrôlée. Ces dispositifs sont actuellement utilisés et commercialisés comme fenêtre intelligente, camouflage, papier électronique et carte de visite personnalisée pour n’en nommer que quelques-uns. Deux propriétés sont essentielles pour que des composés puissent être utilisés dans ces familles de dispositifs : la réversibilité à l’oxydation et la stabilité à l’air et à la lumière. Dans le groupe de recherche du professeur W.G. Skene, l’axe principal de recherche est basé sur la conception de nouveaux matériaux conducteurs comportant des liaisons azométhines. Les principaux matériaux étudiés sont des dérivés de thiophènes et de fluorènes. De précédents résultats ont montré que plusieurs produits issus de la réaction de condensation entre les dérivés du 2,5-diaminothiophène et de thiophènes diformylés menaient à des produits possédant d’excellentes propriétés photophysiques et électrochimiques. C’est en partant de ces résultats encourageants qu’il a été choisi de synthétiser une nouvelle famille de produits avec un nouveau substrat fonctionnalisé. Ce dernier possède d’excellentes propriétés électrochimiques et photophysiques : la triphénylamine. Deux familles de produits ont été synthétisées qui possèdent toutes comme cœur une triphénylamine. Cette dernière a été modifiée de façon à créer une, deux ou trois liaisons azométhines avec différents thiophènes. Deux dérivés du thiophène ont été choisis afin d’étudier l’influence des groupements donneurs et accepteurs sur ces nouveaux types de composés encore jamais étudiés. Les résultats des différentes synthèses et analyses ont été effectués par RMN, spectrométrie de masse, spectrométrie d’absorbance UV-Visible, fluorescence et voltampérométrie cyclique sont rapportées dans le présent recueil.
Resumo:
Les milieux humides remplissent plusieurs fonctions écologiques d’importance et contribuent à la biodiversité de la faune et de la flore. Même s’il existe une reconnaissance croissante sur l’importante de protéger ces milieux, il n’en demeure pas moins que leur intégrité est encore menacée par la pression des activités humaines. L’inventaire et le suivi systématique des milieux humides constituent une nécessité et la télédétection est le seul moyen réaliste d’atteindre ce but. L’objectif de cette thèse consiste à contribuer et à améliorer la caractérisation des milieux humides en utilisant des données satellites acquises par des radars polarimétriques en bande L (ALOS-PALSAR) et C (RADARSAT-2). Cette thèse se fonde sur deux hypothèses (chap. 1). La première hypothèse stipule que les classes de physionomies végétales, basées sur la structure des végétaux, sont plus appropriées que les classes d’espèces végétales car mieux adaptées au contenu informationnel des images radar polarimétriques. La seconde hypothèse stipule que les algorithmes de décompositions polarimétriques permettent une extraction optimale de l’information polarimétrique comparativement à une approche multipolarisée basée sur les canaux de polarisation HH, HV et VV (chap. 3). En particulier, l’apport de la décomposition incohérente de Touzi pour l’inventaire et le suivi de milieux humides est examiné en détail. Cette décomposition permet de caractériser le type de diffusion, la phase, l’orientation, la symétrie, le degré de polarisation et la puissance rétrodiffusée d’une cible à l’aide d’une série de paramètres extraits d’une analyse des vecteurs et des valeurs propres de la matrice de cohérence. La région du lac Saint-Pierre a été sélectionnée comme site d’étude étant donné la grande diversité de ses milieux humides qui y couvrent plus de 20 000 ha. L’un des défis posés par cette thèse consiste au fait qu’il n’existe pas de système standard énumérant l’ensemble possible des classes physionomiques ni d’indications précises quant à leurs caractéristiques et dimensions. Une grande attention a donc été portée à la création de ces classes par recoupement de sources de données diverses et plus de 50 espèces végétales ont été regroupées en 9 classes physionomiques (chap. 7, 8 et 9). Plusieurs analyses sont proposées pour valider les hypothèses de cette thèse (chap. 9). Des analyses de sensibilité par diffusiogramme sont utilisées pour étudier les caractéristiques et la dispersion des physionomies végétales dans différents espaces constitués de paramètres polarimétriques ou canaux de polarisation (chap. 10 et 12). Des séries temporelles d’images RADARSAT-2 sont utilisées pour approfondir la compréhension de l’évolution saisonnière des physionomies végétales (chap. 12). L’algorithme de la divergence transformée est utilisé pour quantifier la séparabilité entre les classes physionomiques et pour identifier le ou les paramètres ayant le plus contribué(s) à leur séparabilité (chap. 11 et 13). Des classifications sont aussi proposées et les résultats comparés à une carte existante des milieux humide du lac Saint-Pierre (14). Finalement, une analyse du potentiel des paramètres polarimétrique en bande C et L est proposé pour le suivi de l’hydrologie des tourbières (chap. 15 et 16). Les analyses de sensibilité montrent que les paramètres de la 1re composante, relatifs à la portion dominante (polarisée) du signal, sont suffisants pour une caractérisation générale des physionomies végétales. Les paramètres des 2e et 3e composantes sont cependant nécessaires pour obtenir de meilleures séparabilités entre les classes (chap. 11 et 13) et une meilleure discrimination entre milieux humides et milieux secs (chap. 14). Cette thèse montre qu’il est préférable de considérer individuellement les paramètres des 1re, 2e et 3e composantes plutôt que leur somme pondérée par leurs valeurs propres respectives (chap. 10 et 12). Cette thèse examine également la complémentarité entre les paramètres de structure et ceux relatifs à la puissance rétrodiffusée, souvent ignorée et normalisée par la plupart des décompositions polarimétriques. La dimension temporelle (saisonnière) est essentielle pour la caractérisation et la classification des physionomies végétales (chap. 12, 13 et 14). Des images acquises au printemps (avril et mai) sont nécessaires pour discriminer les milieux secs des milieux humides alors que des images acquises en été (juillet et août) sont nécessaires pour raffiner la classification des physionomies végétales. Un arbre hiérarchique de classification développé dans cette thèse constitue une synthèse des connaissances acquises (chap. 14). À l’aide d’un nombre relativement réduit de paramètres polarimétriques et de règles de décisions simples, il est possible d’identifier, entre autres, trois classes de bas marais et de discriminer avec succès les hauts marais herbacés des autres classes physionomiques sans avoir recours à des sources de données auxiliaires. Les résultats obtenus sont comparables à ceux provenant d’une classification supervisée utilisant deux images Landsat-5 avec une exactitude globale de 77.3% et 79.0% respectivement. Diverses classifications utilisant la machine à vecteurs de support (SVM) permettent de reproduire les résultats obtenus avec l’arbre hiérarchique de classification. L’exploitation d’une plus forte dimensionalitée par le SVM, avec une précision globale maximale de 79.1%, ne permet cependant pas d’obtenir des résultats significativement meilleurs. Finalement, la phase de la décomposition de Touzi apparaît être le seul paramètre (en bande L) sensible aux variations du niveau d’eau sous la surface des tourbières ouvertes (chap. 16). Ce paramètre offre donc un grand potentiel pour le suivi de l’hydrologie des tourbières comparativement à la différence de phase entre les canaux HH et VV. Cette thèse démontre que les paramètres de la décomposition de Touzi permettent une meilleure caractérisation, de meilleures séparabilités et de meilleures classifications des physionomies végétales des milieux humides que les canaux de polarisation HH, HV et VV. Le regroupement des espèces végétales en classes physionomiques est un concept valable. Mais certaines espèces végétales partageant une physionomie similaire, mais occupant un milieu différent (haut vs bas marais), ont cependant présenté des différences significatives quant aux propriétés de leur rétrodiffusion.
Resumo:
Introduction : La scaphocéphalie est la craniosynostose monosuturaire la plus commune (1/2000). Celle-ci est causée par la fusion prématurée de la suture sagittale. Une chirurgie corrective de la voûte crânienne peut être effectuée dans la première année de vie de l’enfant. Il n’existe actuellement aucune donnée précise dans la littérature scientifique étudiant l’occlusion chez les patients scaphocéphales, ainsi que les impacts potentiels de la chirurgie de la voûte crânienne sur celle-ci. Objectifs : L’objectif primaire de cette étude est de décrire et comparer la malocclusion dento-squelettique d’un groupe de patients scaphocéphales à une population pédiatrique normale. L’objectif secondaire est d’évaluer la différence au niveau de l’occlusion entre un sous-groupe de patients scaphocéphales ayant eu une chirurgie corrective de la voûte crânienne et un sous-groupe ne l’ayant pas eu. Méthodologie : Quatre-vingt-onze patients scaphocéphales (2-11 ans; 71 garçons) de la banque de données de la Clinique de Craniofacial du CHU Ste-Justine ont formé le groupe expérimental. Tous les patients ont eu un examen orthodontique complet et ont été suivis. Parmi ceux-ci, quarante-quatre avaient eu une chirurgie corrective de la voûte crânienne et quarante-sept n’en avaient pas eu, mais étaient suivis régulièrement à la clinique. Trente-huit (33 garçons; 17 opérés) de ces patients ont eu des radiographies céphalométriques latérales et parmi ceux-ci, un certain nombre ont reçus des suivis de croissance radiologiques. Résultats : Les valeurs cliniques de la classification dentaire, ainsi que la mesure du surplomb horizontal, ont indiqué une augmentation de la prévalence de malocclusions de classe II chez les enfants scaphocéphales. Par contre, les valeurs céphalométriques indicatrices de malocclusion squelettique de classe II (ex. : N-A perp HP, N-B perp HP, N-Pog perp HP, Wits, N-A-Pog) sont demeurées dans les limites de la normale. Certaines valeurs céphalométriques présentent une différence statistiquement significative entre les patients opérés et non opérés (ANS-PNS t2, p=0.025; /1-FH t2, p=0.028), mais ces variations individuelles ne sont pas reliées à la scaphocéphalie. Conclusion : Les enfants scaphocéphales présentent cliniquement davantage de malocclusions de classe II que les enfants normaux. Par contre, les valeurs radiologiques antéro-postérieures et transverses demeurent dans les limites de la normale. La chirurgie corrective de la voûte crânienne n’affecte également pas l’occlusion chez ces patients.
Resumo:
Pourquoi faire un effort pour la communauté sans rien recevoir en retour? C’est habituellement par conviction ou pour répondre à une norme sociale. En s’intéressant au problème du recyclage, nous définissons un modèle de comportement qui intègre ces deux facteurs. Nous déterminons sous quelles conditions un individu décide d’agir bénévolement, puis nous étudions comment ce comportement se propage dans la population. Cela nous permet de déduire comment un gouvernement doit pondérer ses efforts entre la publicité et la consigne pour tendre vers un taux de recyclage parfait au coût minimal. Nous prouvons aussi que dans certaines circonstances, il est préférable de ne pas encourager la participation au bien public. En effet, à mesure que plus de gens y participent, des tensions sociales émergent entre ceux qui font un effort et ceux qui n’en font pas. Celles-ci peuvent être assez fortes pour contrebalancer les bénéfices attendus du bien public
Resumo:
Les premiers comptes rendus de l’histoire du cinéma ont souvent considéré les premiers dessins animés, ou vues de dessins animés, comme des productions différentes des films en prise de vue réelle. Les dessins animés tirent en effet leurs sources d’inspiration d’une gamme relativement différente d’influences, dont les plus importantes sont la lanterne magique, les jouets optiques, la féérie, les récits en images et les comics. Le dessin animé n’en demeure pas moins fondamentalement cinématographique. Les vues de dessins animés de la décennie 1900 ne se distinguent ainsi guère des scènes à trucs sur le plan de la technique et du style. D’abord le fait de pionniers issus de l’illustration comique et du croquis vivant comme Émile Cohl, James Stuart Blackton et Winsor McCay, le dessin animé s’industrialise au cours de la décennie 1910 sous l’impulsion de créateurs venant du monde des comics, dont John Randolph Bray, Earl Hurd, Paul Terry et Max Fleisher. Le processus d’institutionnalisation par lequel le dessin animé en viendra à être considéré comme une catégorie de film à part entière dépend en grande partie de cette industrialisation. Les studios de dessins animés développent des techniques et pratiques managériales spécifiquement dédiées à la production à grande échelle de films d’animation. Le dessin animé se crée ainsi sa propre niche au sein d’une industrie cinématographique dont il dépend toutefois toujours entièrement. Ce phénomène d’individuation repose sur des formules narratives et des personnages récurrents conçus à partir de modèles issus des comics des années 1910.
Resumo:
Contexte : Les médecins spécialistes peuvent participer aux soins ambulatoires des personnes atteintes de maladies chroniques (MCs) et comorbidité comme co-gestionnaire ou consultant selon qu’ils sont responsables ou non du suivi du patient. Il y a un manque d’évidences sur les déterminants et l’impact du type d’implication du médecin spécialiste, ainsi que sur la façon optimale de mesurer la comorbidité pour recueillir ces évidences. Objectifs : 1) déterminer chez les patients atteints de MCs les facteurs associés à la cogestion en spécialité, dont les caractéristiques des organisations de première ligne et la comorbidité; 2) évaluer si le type d’implication du spécialiste influence le recours à l’urgence; 3) identifier et critiquer les méthodes de sélection d’un indice de comorbidité pour la recherche sur l’implication des spécialistes dans le suivi des patients. Méthodologie : 709 adultes (65 +/- 11 ans) atteints de diabète, d’arthrite, de maladie pulmonaire obstructive chronique ou d’insuffisance cardiaque furent recrutés dans 33 cliniques de première ligne. Des enquêtes standardisées ont permis de mesurer les caractéristiques des patients (sociodémographiques, comorbidité et qualité de vie) et des cliniques (modèle, ressources). L’utilisation des services de spécialistes et de l’urgence fut mesurée avec une base de données médico-administratives. Des régressions logistiques multivariées furent utilisées pour modéliser les variables associées à la cogestion et comparer le recours à l’urgence selon le type d’implication du spécialiste. Une revue systématique des études sur l’utilisation des services de spécialistes, ainsi que des revues sur les indices de comorbidité fut réalisée pour identifier les méthodes de sélection d’un indice de comorbidité utilisées et recommandées. Résultats : Le tiers des sujets a utilisé les services de spécialistes, dont 62% pour de la cogestion. La cogestion était associée avec une augmentation de la gravité de la maladie, du niveau d’éducation et du revenu. La cogestion diminuait avec l’âge et la réception de soins dans les cliniques avec infirmière ayant un rôle innovateur. Le recours à l’urgence n’était pas influencé par l’implication du spécialiste, en tant que co-gestionnaire (OR ajusté = 1.06, 95%CI = 0.61-1.85) ou consultant (OR ajusté = 0.97, 95%CI = 0.63-1.50). Le nombre de comorbidités n’était pas associé avec la cogestion, ni l’impact du spécialiste sur le recours à l’urgence. Les revues systématiques ont révélé qu’il n’y avait pas standardisation des procédures recommandées pour sélectionner un indice de comorbidité, mais que 10 critères concernant principalement la justesse et l’applicabilité des instruments de mesure pouvaient être utilisés. Les études sur l’utilisation des services de spécialistes utilisent majoritairement l’indice de Charlson, mais n’en expliquent pas les raisons. Conclusion : L’implication du spécialiste dans le suivi des patients atteints de MCs et de comorbidité pourrait se faire essentiellement à titre de consultant plutôt que de co-gestionnaire. Les organisations avec infirmières ayant un rôle innovateur pourraient réduire le besoin pour la cogestion en spécialité. Une méthode structurée, basée sur des critères standardisés devrait être utilisée pour sélectionner l’indice de comorbidité le plus approprié en recherche sur les services de spécialistes. Les indices incluant la gravité des comorbidités seraient les plus pertinents à utiliser.
Resumo:
Six courts récits, qui peuvent n’en former qu’un, se penchent sur les possibilités de la voix narrative (à la troisième personne, au « je », au « nous », au « tu »). Ils réfléchissent sur l’acte de création comme construction et sur les effets de la narration. Pour preuve, le dernier texte reprend intégralement le premier. Le fantastique surgit au moment de l’hésitation du lecteur devant la nature des faits qui lui sont présentés. C’est avec les différentes instances que composent les destinateurs et les destinataires du récit que ce texte joue. La voix narrative, dans un texte fantastique, a une grande importance et doit créer une tension chez le lecteur, qui n’arrivera pas à trouver une explication pour certains aspects du récit. Le narrateur, souvent au « je », se confond avec un personnage. À l’aide de l’analyse du déroulement de l’intrigue et des procédés narratifs utilisés dans trois nouvelles : La Vénus d’Ille (Mérimée), Apparition (Maupassant), Ligeia (Poe), nous cherchons à montrer le rôle du narrateur dans le texte fantastique.
Resumo:
Ce mémoire a pour but de montrer que le premier tournant herméneutique de Paul Ricœur en 1960 gravite essentiellement autour de la problématique de la volonté mauvaise. Nous soutenons autrement dit que Ricœur a initialement donné une tournure herméneutique à sa philosophie pour penser le serf-arbitre, c’est-à-dire pour penser la liberté captive d’elle-même. Afin de rendre compte adéquatement de ce tournant, notre attention sera principalement dirigée vers le deuxième tome de la Philosophie de la volonté de Ricœur, Finitude et culpabilité. Notre question se pose ainsi : comment et pourquoi, dans une problématique du mal, Ricœur entame-t-il son tournant herméneutique? Pour y répondre, nous expliciterons le parcours de Ricœur allant de L’homme faillible à La symbolique du mal. Nous verrons dans un premier temps que si le philosophe arrive à thématiser le concept de faillibilité à partir d’une ontologie de la disproportion, si la réflexion a accès à la possibilité du mal, il n’en ira pas de même pour le noème inintelligible que constitue le mal moral. Afin de penser la faute, nous verrons que Ricœur se tournera vers l’herméneutique en se mettant à l’écoute du langage de l’aveu. Ainsi, dans la deuxième partie de notre mémoire, nous expliciterons les trois moments de compréhension (phénoménologique, herméneutique et réflexif) propre à l’herméneutique philosophique de Ricœur de 1960.
Resumo:
À la suite du dévoilement d’une agression sexuelle, l’examen médical est l’une des étapes importantes qui sont recommandées pour les enfants victimes, mais seulement certains d’entre eux le complètent. L’objectif de la présente étude est de vérifier si les enfants qui font l’examen anogénital à la suite du dévoilement d’agression sexuelle sont différents de ceux qui n’en font pas ainsi que de documenter les variables, notamment les caractéristiques de l’enfant, de la famille, de l’agresseur et de l’agression, qui pourraient prédire le fait de compléter cet examen. L’échantillon est composé de 211 enfants âgés de 6 à 13 ans recevant des services au Centre d’expertise Marie-Vincent. Une régression logistique binaire révèle que l’absence d’emploi de la mère (RC = 6,15), être victime d’une agression sexuelle très sévère (RC = 6,02), être victime d’un agresseur adulte (RC = 3,43) et provenir d’une famille monoparentale (RC = 2,89) contribuent à prédire si l’examen anogénital est réalisé ou pas à la suite du dévoilement. Les résultats confirment que les enfants complètent l’examen surtout afin de trouver des éléments de preuves et que parmi ceux qui pourraient en bénéficier pour leur bien-être, plusieurs ne sont pas rencontrés.