938 resultados para Méthode des contours
Resumo:
Travail dirigé présenté à la Faculté des arts et des sciences en vue de l'obtention de grade de Maîtrise en criminologie option criminalistique
Resumo:
Descartes pose l’identité entre l’animal et la machine sur le plan de leur nature. Le présent texte examine l’importance de la notion de langage dans l’expérience de pensée de Descartes portant sur l’animal, et ce, à partir du test du langage présenté dans le Discours de la méthode. L’échec au test du langage témoigne de leur incapacité à manifester des aptitudes langagières minimales ce qui supporte le jugement cartésien voulant que les animaux soient des machines dénuées d’âme et de pensée. De plus, le discours sur la nature des animaux est l’occasion de faire valoir le caractère universel de la raison.
Resumo:
Nous défendons que la pensée de Jean de Silhon au sujet des « démonstrations morales » dans le traité De l’immortalité de l’âme a eu un écho important sur la façon dont Blaise Pascal a imaginé le mode de démonstration propre aux preuves de la vérité de la religion chrétienne dans les Pensées. Plus largement, cet article s’intéresse à une forme de démonstration qui procède par accumulation d’indices déliés, mais convergents. Le mode de raisonnement propre à l’apologie de la religion chrétienne devient ainsi à l’image des raisonnements de tous les jours, qui ne procèdent habituellement pas en tirant des déductions à partir de principes clairs et distincts. Silhon et Pascal fournissent ainsi une sorte de méthode pour bien conduire les raisonnements qui ne peuvent s’appuyer sur les principes de la logique et ainsi, leur confère une forme d’autorité supérieure aux simples opinions. Peut être dite moralement démontrée, en somme, une proposition appuyée par un corps important d’indices convergents, à condition d’en évaluer l’orientation à froid, c’est-à-dire avec patience, désintérêt et prudence.
Resumo:
Mon travail s’inspire de l’idée de la Direction nationale de l’enseignement scolaire suédoise (Skolverket, 2011) qui suggère que « les élèves doivent avoir la possibilité de développer une capacité de communication et de compréhension de la langue ». Mon mémoire commence par une introduction générale, continue avec une analyse des manuels utilisés dans l’apprentissage du FLE et des activités favorisant l’interaction - échange réciproque verbale ou non verbale, pour terminer par une conclusion générale. Comme il n’existe pas d’enseignement sans méthodes appropriées, il existe des manuels qu’on peut utiliser afin de faciliter l’apprentissage par l’interaction de la langue cible. Les activités de communication orale et écrite d’ordre pédagogique sont indispensables. Tout comme l’écrit Revue française de pédagogie (1994 :133) « La classe est un système social complexe dont les parties sont en interaction dynamique, acteurs (enseignant et élève[s]), situation, matière selon des statuts sociaux. ». Pour effectuer mes recherches, j’ai porté mon attention sur l’analyse des manuels scolaires qu’il m’a été permis de consulter. Il s’agit des manuels d’entraide comme : Mais oui 3 et Escalade littéraire. Concernant l’analyse du matériel didactique favorisant l’interaction, ces deux manuels proposent des exercices de réflexion selon le niveau de l’apprenant. Dans mon travail, je m’intéresse à l’aspect didactique et linguistique de ces deux manuels scolaires.
Resumo:
Travail dirigé présenté à la Faculté des arts et des sciences en vue de l'obtention de grade de Maîtrise en criminologie option criminalistique
Resumo:
Descartes pose l’identité entre l’animal et la machine sur le plan de leur nature. Le présent texte examine l’importance de la notion de langage dans l’expérience de pensée de Descartes portant sur l’animal, et ce, à partir du test du langage présenté dans le Discours de la méthode. L’échec au test du langage témoigne de leur incapacité à manifester des aptitudes langagières minimales ce qui supporte le jugement cartésien voulant que les animaux soient des machines dénuées d’âme et de pensée. De plus, le discours sur la nature des animaux est l’occasion de faire valoir le caractère universel de la raison.
Resumo:
Nous défendons que la pensée de Jean de Silhon au sujet des « démonstrations morales » dans le traité De l’immortalité de l’âme a eu un écho important sur la façon dont Blaise Pascal a imaginé le mode de démonstration propre aux preuves de la vérité de la religion chrétienne dans les Pensées. Plus largement, cet article s’intéresse à une forme de démonstration qui procède par accumulation d’indices déliés, mais convergents. Le mode de raisonnement propre à l’apologie de la religion chrétienne devient ainsi à l’image des raisonnements de tous les jours, qui ne procèdent habituellement pas en tirant des déductions à partir de principes clairs et distincts. Silhon et Pascal fournissent ainsi une sorte de méthode pour bien conduire les raisonnements qui ne peuvent s’appuyer sur les principes de la logique et ainsi, leur confère une forme d’autorité supérieure aux simples opinions. Peut être dite moralement démontrée, en somme, une proposition appuyée par un corps important d’indices convergents, à condition d’en évaluer l’orientation à froid, c’est-à-dire avec patience, désintérêt et prudence.
Resumo:
Le yogourt grec, pouvant être obtenu par concentration du yogourt traditionnel par ultrafiltration (UF), connaît une croissance exceptionnelle en Amérique du Nord (+100% depuis 2012), et représente le premier segment de marché des produits laitiers fermentés en 2014. Cependant, d’un point de vue environnemental, la production du yogourt grec fait face à plusieurs enjeux et défis. Son élaboration nécessite trois fois plus de lait que le yogourt traditionnel de par l’étape de concentration nécessaire à l’atteinte de la concentration protéique cible. De plus, l’étape d’UF du yogourt génère un perméat acide (coproduit du yogourt) difficilement valorisable. Néanmoins, une alternative consistant à effectuer l’étape d’UF sur le lait avant sa fermentation permet d’éliminer la production du perméat acide, et génère un perméat de lactosérum doux déprotéiné dont les voies de valorisation sont davantage connues. Cette stratégie pourrait donc potentiellement réduire l’impact environnemental du procédé et générer des coproduits plus facilement valorisables, améliorant ainsi l’écoefficience du procédé de fabrication de yogourt grec. Dans cette optique, ce projet de recherche visait à comparer l’impact environnemental sur l’ensemble du cycle de vie de la production de yogourt grec selon deux procédés : en effectuant l’étape de concentration par UF avant l’étape de fermentation (UF LAIT), ou après (UF YOG) comme utilisé dans l’industrie. Ainsi, des expérimentations à échelle pilote ont été réalisées dans le but de comparer ces deux procédés. Le nouveau procédé (UF LAIT) permettrait une réduction des consommations d’énergie à l’étape de transformation étant donné que l’UF du lait avant fermentation permet de réduire la quantité de matière première à transformer d’environ un tiers. Cependant l’Analyse du Cycle de Vie (ACV) des deux procédés donne comme résultat un bilan environnemental défavorable à (UF LAIT) comparativement au procédé traditionnel (UF YOG) à cause d’une plus grande consommation de lait, qui est responsable d’environ 80% des impacts sur le cycle de vie du yogourt grec. Cet impact majeur pour UF LAIT l’est encore même lorsque dans une analyse de sensibilité le perméat doux de UF LAIT est alloué à l’étape d’UF contrairement au perméat acide de UF YOG qui est considéré comme un déchet non valorisable.
Resumo:
Méthodologie: Investigation à caractère heuristique et réflexif, inscrite dans une énonciation autobiographique se traduisant par la rédaction et l’analyse de deux récits
Resumo:
En raison du virage semi-autoritaire de l’État russe au début des années 2000, l’adaptation aux mesures contraignantes de l’État, qu’elle soit consciente ou inconsciente, constitue un aspect fondamental du quotidien des ONG de défense des droits de l’homme russes. Cependant, il s’agit d’une question jusqu’ici négligée dans la littérature scientifique. Ainsi, ce mémoire a pour objet d’examiner la démarche d’adaptation d’une ONG particulièrement active sur la scène russe, le Centre des droits de l’homme Memorial, entre 1999 et 2014. La recherche révèle que cette ONG emploie deux méthodes afin de s’adapter aux mesures étatiques et que celles-ci sont, en fait, des principes d’action adoptés par l’organisation au moment de sa création. Le premier principe d’action s’appuie sur la coopération et la solidarité développées par le Centre des droits de l’homme Memorial avec d’autres ONG russes, des ONG internationales et des organisations internationales. En partenariat avec ces organisations, le Centre des droits de l’homme Memorial élabore des activités de recherche et de plaidoyer et mène des missions de surveillance des droits de l’homme. Ce principe d’action renforce considérablement la capacité d’adaptation de l’ONG et favorise l’exercice de son rôle de contrepouvoir. Le second principe d’action se fonde sur la recherche de collaboration constructive avec l’État. Lors d’interactions ponctuelles avec les autorités, l’organisation exerce un rôle d’expert en matière de droits de l’homme et tente de réduire les entraves posées à la société civile. Outre sa propriété adaptative, cette méthode d’adaptation combine deux fonctions inhérentes à la société civile, soit la représentation des intérêts des citoyens auprès des instances étatiques et l’établissement d’un partenariat avec l’État dans le but d’amener ce dernier à adopter des pratiques démocratiques. Ce mémoire montre la capacité du Centre des droits de l’homme Memorial à se mouvoir d’une méthode d’adaptation à l’autre afin de maximiser son action.
Resumo:
Chaque année, le piratage mondial de la musique coûte plusieurs milliards de dollars en pertes économiques, pertes d’emplois et pertes de gains des travailleurs ainsi que la perte de millions de dollars en recettes fiscales. La plupart du piratage de la musique est dû à la croissance rapide et à la facilité des technologies actuelles pour la copie, le partage, la manipulation et la distribution de données musicales [Domingo, 2015], [Siwek, 2007]. Le tatouage des signaux sonores a été proposé pour protéger les droit des auteurs et pour permettre la localisation des instants où le signal sonore a été falsifié. Dans cette thèse, nous proposons d’utiliser la représentation parcimonieuse bio-inspirée par graphe de décharges (spikegramme), pour concevoir une nouvelle méthode permettant la localisation de la falsification dans les signaux sonores. Aussi, une nouvelle méthode de protection du droit d’auteur. Finalement, une nouvelle attaque perceptuelle, en utilisant le spikegramme, pour attaquer des systèmes de tatouage sonore. Nous proposons tout d’abord une technique de localisation des falsifications (‘tampering’) des signaux sonores. Pour cela nous combinons une méthode à spectre étendu modifié (‘modified spread spectrum’, MSS) avec une représentation parcimonieuse. Nous utilisons une technique de poursuite perceptive adaptée (perceptual marching pursuit, PMP [Hossein Najaf-Zadeh, 2008]) pour générer une représentation parcimonieuse (spikegramme) du signal sonore d’entrée qui est invariante au décalage temporel [E. C. Smith, 2006] et qui prend en compte les phénomènes de masquage tels qu’ils sont observés en audition. Un code d’authentification est inséré à l’intérieur des coefficients de la représentation en spikegramme. Puis ceux-ci sont combinés aux seuils de masquage. Le signal tatoué est resynthétisé à partir des coefficients modifiés, et le signal ainsi obtenu est transmis au décodeur. Au décodeur, pour identifier un segment falsifié du signal sonore, les codes d’authentification de tous les segments intacts sont analysés. Si les codes ne peuvent être détectés correctement, on sait qu’alors le segment aura été falsifié. Nous proposons de tatouer selon le principe à spectre étendu (appelé MSS) afin d’obtenir une grande capacité en nombre de bits de tatouage introduits. Dans les situations où il y a désynchronisation entre le codeur et le décodeur, notre méthode permet quand même de détecter des pièces falsifiées. Par rapport à l’état de l’art, notre approche a le taux d’erreur le plus bas pour ce qui est de détecter les pièces falsifiées. Nous avons utilisé le test de l’opinion moyenne (‘MOS’) pour mesurer la qualité des systèmes tatoués. Nous évaluons la méthode de tatouage semi-fragile par le taux d’erreur (nombre de bits erronés divisé par tous les bits soumis) suite à plusieurs attaques. Les résultats confirment la supériorité de notre approche pour la localisation des pièces falsifiées dans les signaux sonores tout en préservant la qualité des signaux. Ensuite nous proposons une nouvelle technique pour la protection des signaux sonores. Cette technique est basée sur la représentation par spikegrammes des signaux sonores et utilise deux dictionnaires (TDA pour Two-Dictionary Approach). Le spikegramme est utilisé pour coder le signal hôte en utilisant un dictionnaire de filtres gammatones. Pour le tatouage, nous utilisons deux dictionnaires différents qui sont sélectionnés en fonction du bit d’entrée à tatouer et du contenu du signal. Notre approche trouve les gammatones appropriés (appelés noyaux de tatouage) sur la base de la valeur du bit à tatouer, et incorpore les bits de tatouage dans la phase des gammatones du tatouage. De plus, il est montré que la TDA est libre d’erreur dans le cas d’aucune situation d’attaque. Il est démontré que la décorrélation des noyaux de tatouage permet la conception d’une méthode de tatouage sonore très robuste. Les expériences ont montré la meilleure robustesse pour la méthode proposée lorsque le signal tatoué est corrompu par une compression MP3 à 32 kbits par seconde avec une charge utile de 56.5 bps par rapport à plusieurs techniques récentes. De plus nous avons étudié la robustesse du tatouage lorsque les nouveaux codec USAC (Unified Audion and Speech Coding) à 24kbps sont utilisés. La charge utile est alors comprise entre 5 et 15 bps. Finalement, nous utilisons les spikegrammes pour proposer trois nouvelles méthodes d’attaques. Nous les comparons aux méthodes récentes d’attaques telles que 32 kbps MP3 et 24 kbps USAC. Ces attaques comprennent l’attaque par PMP, l’attaque par bruit inaudible et l’attaque de remplacement parcimonieuse. Dans le cas de l’attaque par PMP, le signal de tatouage est représenté et resynthétisé avec un spikegramme. Dans le cas de l’attaque par bruit inaudible, celui-ci est généré et ajouté aux coefficients du spikegramme. Dans le cas de l’attaque de remplacement parcimonieuse, dans chaque segment du signal, les caractéristiques spectro-temporelles du signal (les décharges temporelles ;‘time spikes’) se trouvent en utilisant le spikegramme et les spikes temporelles et similaires sont remplacés par une autre. Pour comparer l’efficacité des attaques proposées, nous les comparons au décodeur du tatouage à spectre étendu. Il est démontré que l’attaque par remplacement parcimonieux réduit la corrélation normalisée du décodeur de spectre étendu avec un plus grand facteur par rapport à la situation où le décodeur de spectre étendu est attaqué par la transformation MP3 (32 kbps) et 24 kbps USAC.
Resumo:
Depuis une vingtaine d'années la lexicologie bénéficie d'un nouvel intérêt. Des études portant à la fois sur l'objet et la méthode de cette discipline ont été menées à bien et publiées. Et, l'on n'a plus à déplorer comme naguère le manque de rigueur ou l'absence de cohérence des travaux de lexicologie…
Resumo:
L’objectif premier de cet essai est de prioriser des stratégies visant la pérennité des populations de loups au Québec. Ces stratégies visent à diminuer les pressions actuelles que subissent les loups. Les loups sont peu charismatiques. Il est donc difficile d’aller chercher l’appui du public. Si les loups du Québec parvenaient à gagner le cœur des Québécois, ils pourraient alors servir de levier afin que les dirigeants mettent en place un plan de conservation pour préserver ces espèces ou sous-espèces. C’est pourquoi d’ailleurs des stratégies sont proposées afin de rallier la population à cette cause. D’abord, un portrait des différentes espèces ou sous-espèces de loups et de coyotes est effectué pour bien comprendre dans quel contexte les loups évoluent actuellement. Ensuite, les menaces planant sur les populations sont identifiées, il s’agit de : l’hybridation avec le coyote ainsi que la compétition pour les ressources alimentaires, la fragmentation du territoire, les activités humaines, tels la chasse et le braconnage, les routes, ainsi que les activités touristiques. Les impacts économiques, sociaux et environnementaux reliés au déclin potentiel des loups sont ensuite énumérés. Cette partie démontre à quel point la situation est complexe et souligne toutes les répercussions potentielles que peut avoir la disparition du loup sur le Québec. Le rôle de l’appui du public dans le rétablissement d’espèces à statut précaire est ensuite discuté. Par la suite, une liste exhaustive des stratégies est mise en place. En tout, 43 stratégies ont été trouvées. Ces stratégies, visant l’atténuation des menaces sur le loup ou essayant de rallier l’appui du public, ont été classées dans 4 grandes orientations pour ensuite être priorisées selon leur performance. Par parcimonie, seules les 3 meilleures stratégies de chaque orientation seront présentées. Les 3 meilleures stratégies de l’orientation #1 sont de réduire le taux de mortalité des meutes de loups québécois, de ne pas clôturer les dépotoirs forestiers et de mettre au point un programme de suivi. Les 3 stratégies les plus performantes de l’orientation #2 sont de protéger les tanières, d’optimiser l’aménagement agricole et routier. Les 3 meilleures stratégies de l’orientation #3 sont d’utiliser la méthode de Fladry, de gérer les sorties guidées d’écoute nocturne et d’ajouter le loup de l’Est à la liste des espèces menacées du Québec. Les trois stratégies les plus performantes de l’orientation #4 sont d’informer la population de sa capacité à participer et à aider à conserver les loups, d’encourager les parcs et les réserves à inclure le loup dans leurs indicateurs de l’intégrité écologique des écosystèmes et d’informer la population sur les avantages découlant de la conservation des loups. Dans le cadre des recommandations, il faut aussi combiner diverses stratégies de différentes orientations, utiliser le marketing social sur la majorité des stratégies prioritaires, mener une campagne d’éducation populaire à propos du loup et inclure l’ensemble des parties prenantes pouvant avoir un impact sur les différentes stratégies. Pour terminer, l’intérêt d’introduire le loup sur l’île d’Anticosti est évoqué, car cette avenue pourrait être une solution intéressante afin de remédier aux problématiques qu’entraînent les fortes densités de cerfs de Virginie sur cette île.
Resumo:
La présence des contaminants organiques dans l’environnement est une problématique aux enjeux aussi bien scientifiques que politiques. Le caractère diffus et continu (différentes et multiples sources) de cette contamination ne permet pas à ces molécules biologiquement actives d’être soumises à une législation. Ces molécules, pouvant être très récalcitrantes, ne sont pas systématiquement éliminées par les systèmes de traitement des eaux conventionnels. Actuellement, de nouveaux procédés biotechnologiques basés sur des enzymes extracellulaires (e.g. Laccase) ou des champignons lignivores permettent l’élimination des composés les plus récalcitrants. Notre compréhension des mécanismes impliqués dans cette élimination reste incomplète. En effet, la biosorption et l’activité des enzymes extracellulaire sont les mécanismes les plus souvent mis en avant pour expliquer l’efficacité des procédés d’élimination fongique, mais ne sont pas capables d’expliquer les performances obtenues pour certains composés pharmaceutiques. Ces lacunes dans nos connaissances sur les mécanismes responsables de l’élimination fongique des contaminants organiques sont un frein à la pleine exploitation de ces procédés de traitement. De plus, il est forcé d’admettre qu’un grand nombre de travaux portant sur l’élimination fongique de contaminants organiques ont été réalisés dans des conditions de hautes concentrations, qui peuvent être peu représentatives des matrices environnementales. Ainsi, les effets observés à plus forte concentration peuvent etre le résultat dû au stress de l’organisme au contact des contaminants (toxicités). Cette thèse adresse deux questions ; ainsi quelle est l’influence des concentrations traces sur de tels procédés ? Et comment expliquer l’élimination de certains contaminants organiques lors des traitements fongiques ? Afin d’apporter des éléments de réponse sur les mécanismes mis en jeux lors de l’élimination fongique, les travaux présentés ici ont été réalisés sur un modèle de champignon lignivore connu pour ses propriétés en bioremediation. Dans un premier temps, un développement analytique permettant la quantification d’une sélection de contaminants organiques à l’état de traces a été réalisé. Cette méthode a permis d’effectuer des analyses de ces molécules à partir d’un seul échantillon environnemental de faible biomasse et à partir d’une seule injection instrumentale. Les résultats de cette thèse démontrent que l’élimination fongique de contaminants organiques résulte de mécanismes plus complexes que précédemment décrits. Notamment, la dégradation est fortement dépendante d’une étape initiale d’internalisation du contaminant par l’organisme ciblé et de la dégradation intracellulaire. Les mécanismes impliqués peuvent ainsi donnés lieux à des réactions de conjugaison intracellulaire des molecules (glucuronide, glutathione). Les résultats démontrent également que ces procédés d’élimination fongique sont efficaces sur une large gamme de concentration en contaminants organiques. Cependant, les faibles concentrations modifient les propriétés physico-chimiques et biologiques de l’organisme testé (i.e. un changement de la morphologie et du profil de la production enzymatique). La réponse biologique n’étant pas directement proportionnelle a l’exposition en contaminant. Cette étude a permis d’accroitre notre compréhension des mécanismes impliqués dans la dégradation fongique de contaminants organiques. Ceci ouvre la voie à de nouvelles études portant sur les interactions entre processus intra — et extracellulaires. Cette thèse contribue également à l’amélioration des connaissances en offrant des outils de compréhension nécessaire à l’optimisation et au développement du potentiel de ces procédés biotechnologiques (ciblage et role des enzymes réeellement impliquées dans les réactions de biocatalyse).
Resumo:
Cette recherche a pour origine un problème concret vécu au Cégep de Saint-Jérôme, plus particulièrement lors des cours de type «stage». D’entrée de jeu et afin de nous situer, nous conviendrons de la définition suivante du stage. Le problème auquel nous essaierons d’apporter des solutions, dans la présente recherche, se présente depuis plusieurs années en situation d'évaluation sommative des cours de type «stage» plus particulièrement lorsque les enseignants ont à déterminer la note finale. Les enseignants se réunissent en groupe de superviseurs de stages ou plus spécifiquement en groupe d’experts et discutent des résultats des étudiants. Malgré que des grilles de stages aient été expérimentées par l’équipe des enseignants à la suite d’une recherche menée par Delisle et Cantin (1994), le processus permettant de porter un jugement aussi juste que possible sur le niveau d’atteinte de chacune des compétences par l’élève demeure problématique. Ainsi il en découle une difficulté à dégager un portrait juste de la situation de l’élève afin d’en arriver à une notation qui rejoigne le jugement expert de l’enseignant. En cette matière, la première question qui nous vînt à l'esprit, question générale et préliminaire, consistait à nous demander à quoi faisons-nous référence lorsque nous parlons d’évaluation sommative des compétences en stage ? En d’autres mots, quel processus permettrait de fixer un seuil de réussite reflétant le plus justement possible le jugement de l’enseignant par rapport au niveau d’atteinte par l’élève de chacune des compétences? Le premier chapitre de notre recherche élabore une problématique observant la réalité du département de Techniques d’éducation en services de garde du Cégep de Saint-Jérôme. : nous sommes en mesure dès lors de poser une question spécifique servant d’amorce à notre recherche. Puis, nous présentons l’ensemble des outils du programme spécifique auquel nous apportons notre attention. Enfin nous apportons des précisions sur l'objectif, les limites et le genre de la recherche qui nous caractérise. Le deuxième chapitre fait état des connaissances sur la question, plus spécifiquement sur les concepts principaux de notre recherche. Les écrits que nous avons retenus sont principalement des rapports de recherche, des articles et des monographies spécialisés dans le domaine de la mesure et de l’évaluation. Le troisième chapitre de notre recherche présente le cadre de référence proposant une méthode d’établissement de standards dans un contexte d’évaluation des performances. Ce cadre de référence que nous avons retenu nous permettra de procéder à l’élaboration d’une méthode d’utilisation. Le quatrième chapitre décrira donc, à la suite de l’élaboration du cadre opératoire, les conditions de la mise en oeuvre et amorcera une démarche critique de la méthode choisie. En conclusion, nous rappellerons le chemin parcouru. Par la suite, nous ferons état des réserves que nous avons par rapport à différents aspects de notre recherche. Pour terminer, nous dégagerons les opportunités dans le temps et dans l’espace qui se dégagent dans le contexte de l’approche par compétences.