952 resultados para Modes alternatifs de résolution des conflits
Resumo:
Considérant la « nouveauté » du phénomène de dénonciation auprès des policiers et l’utilisation croissante du concept social de « crime motivé par la haine », peu d’études ont été réalisées au Canada sur l’incidence de ces crimes pour les personnes comme pour la société. Cette recherche exploratoire a comme objectif de comprendre la façon dont ce type de crime se distingue des autres manifestations de conflits ou d’incidents et de comprendre les impacts de ce type de victimisation pour les homosexuels en particulier. Plus spécifiquement, ce mémoire vise à approfondir la compréhension du stigmate homosexuel et son impact sur la reportabilité des événements de victimisation criminelle aux autorités judiciaires. Pour ce faire, cinq intervenants communautaires, deux policiers, un avocat et quatre victimes considérant avoir vécu des événements de violence homophobe ont été interviewés. Cet échantillon diversifié a permis de mieux comprendre le phénomène de sous-déclaration des incidents de violences homophobes de la part des victimes et d’obtenir une vue d’ensemble des perceptions des acteurs clés qui peuvent être confrontés au phénomène. L’analyse des entretiens suggère d’importantes lacunes sur le plan de la formation des divers intervenants qui entrainent des difficultés à reconnaître une violence homophobe. Les intervenants confient ne pas se sentir pas suffisamment outillés pour intervenir auprès d’une victime de violence homophobe, n’estiment pas tous posséder les compétences et une compréhension suffisante des réalités des minorités sexuelles, de l'homophobie et de l'hétérosexisme, en somme, l’ensemble des savoirs ultimement nécessaires à une assistance et un accompagnement efficaces pour la déclaration aux autorités d’une telle violence vécue par les victimes. Du côté des victimes de violence(s) homophobe(s), il ressort que la discrimination basée sur l’orientation sexuelle est encore prégnante dans leurs interactions quotidiennes. De leur point de vue, la banalisation et l’impunité de certains comportements homophobes par les instances judiciaires viennent renforcer l’idée chez les victimes et la société d’une forme d’infériorité de l’orientation homosexuelle. L’apposition d’une étiquette homosexuelle paraît ainsi avoir de multiples conséquences psychologiques et sociales sur les victimes, notamment sur leur développement identitaire et sexuel. L’intégration des stigmates homosexuels et l’autostigmatisation, qui les poussent à se déprécier, voire à déprécier l’ensemble de la communauté homosexuelle, surgissent de leur perception de la présence de forts stéréotypes homosexuels, d’une société majoritairement hétérosexiste et de l’opérationnalisation sociale d’une distanciation entre le « nous » hétérosexuel et le « eux » homosexuel. Par leur marginalisation, leur mise en infériorité historique, l’ambiguïté du concept de « crimes motivés par la haine », la noncompréhension de la violence et des répercussions qu’ont les intervenants communautaires et judiciaires de la situation et partant, dans bien des cas, de la prise en charge inadéquate qui en découle pour les victimes des violences homophobes, il est possible de comprendre les appréhensions mentales que les victimes entretiennent ainsi que leur réticence à solliciter de l’aide et encore plus à rapporter la victimisation vécue aux autorités judiciaires.
Resumo:
Les nouvelles technologies et l’arrivée de l’Internet ont considérablement facilité les échanges transnationaux de données entre les entreprises publiques et/ou privées et également entre les personnes elles-mêmes. Cependant cette révolution numérique n’a pas été sans conséquences sur l’utilisation de nos données personnelles puisque cette abondance de données à la portée de tiers peut conduire à des atteintes : la commercialisation des données personnelles sans le consentement de l’intéressé par des entreprises ou encore la diffusion de sa photographie, de son nom, de son prénom à son insu en sont des exemples. La question qui vient alors se poser est en cas de litige, c’est-à-dire en cas d’atteintes au droit à la protection de nos données personnelles, présentant un ou des éléments d’extranéité, quels tribunaux pouvons-nous saisir ? Et quelle est la loi qui sera applicable ? Les droits québécois, de l’Union européenne, et suisse présentent différents critères de rattachement intéressants et adaptés à des situations prenant place hors et sur internet. Le droit commun de chacun de ces systèmes est envisagé, puis appliqué aux données personnelles dans le cadre d’une situation normale, et ensuite à internet si la situation diffère. La doctrine est également analysée dans la mesure où certaines solutions sont tout à fait intéressantes, et cela notamment sur internet. Un premier chapitre est consacré à la compétence internationale des tribunaux et aux critères de rattachement envisageables en droit commun à savoir notamment : le tribunal de l’État de survenance du préjudice, le tribunal de l’État de la faute ou encore le tribunal du domicile de la victime. Et ceux prévus ou non par la doctrine tels que l’accessibilité et le ciblage par exemple. Les conflits de lois sont étudiés dans un deuxième chapitre avec également l’énumération les différents facteurs de rattachement envisageables en droit commun comme la loi de l’État du préjudice, la loi de l’État de la faute ou encore la loi de l’État favorisant la victime. Et également ceux prévus par la doctrine : la loi de l’État « offrant la meilleure protection des données à caractère personnel » ou encore la loi de l’État où est établi le « maître du fichier ». Le tribunal le plus compétent au regard des principes généraux de droit international privé en cas d’atteintes au droit de la protection des données personnelles hors et sur internet est le tribunal de l’État du domicile de la victime. Et la meilleure loi applicable est la loi de l’État du domicile ou de la résidence principale du demandeur et du défendeur à l’instance, et dans le cas où la situation ne présente pas d’éléments d’extranéité, la meilleure loi est la loi favorisant la victime.
Resumo:
Cette thèse examine le comportement de quatre doyens canadiens dont les facultés sont en situation financière précaire. Dans un contexte d’imputabilité accrue des établissements universitaires et de modification constante aux rapports de pouvoir internes, cette étude présente une importance particulière pour la compréhension de l’exercice réel des fonctions administratives des cadres académiques intermédiaires. La recherche scientifique sur ce sujet attribue aux doyens une contribution vitale au bon fonctionnement des établissements; le doyen en demeure pourtant un des rouages les moins étudiés. La position intermédiaire qu’occupent les doyens les place dans un conflit de rôle évident. Pris entre des rôles et des attentes contradictoires émis par la communauté facultaire, d’une part, et par la direction de l’établissement, d’autre part, ils doivent conjuguer cette ambiguïté avec des responsabilités croissantes en matière de gestion financière, de leadership et d’opérationnalisation des visées stratégiques de l’université. Comprendre la façon dont les doyens arrivent à mobiliser les leviers institutionnels à leur disposition pour résoudre des situations critiques permettra d’améliorer notre compréhension de la complexité de la prise de décision au niveau intermédiaire et notre compréhension globale du fonctionnement des établissements universitaires. La présente étude importe de la théorie culturelle-historique de l’activité (culturalhistorical activity theory, ou CHAT) un modèle d’analyse de l’activité collective en situation de contradictions systémiques. Quatre doyens d’une même université ont été interviewés afin de présenter une situation vécue de difficulté budgétaire, et le processus de résolution qui a suivi. Les données ont été analysées qualitativement afin de décrire les interventions que réalisent les doyens sur les leviers présents dans leurs environnements. Les résultats suggèrent que les participants ont misé sur une maîtrise fine des rouages institutionnels et sur des interventions diversifiées afin de résoudre les contradictions de leurs systèmes d’activité.
Resumo:
Méthodologie: Modèle interprétatif de l’archéologie phénoménologique.
Resumo:
Chaque année, le piratage mondial de la musique coûte plusieurs milliards de dollars en pertes économiques, pertes d’emplois et pertes de gains des travailleurs ainsi que la perte de millions de dollars en recettes fiscales. La plupart du piratage de la musique est dû à la croissance rapide et à la facilité des technologies actuelles pour la copie, le partage, la manipulation et la distribution de données musicales [Domingo, 2015], [Siwek, 2007]. Le tatouage des signaux sonores a été proposé pour protéger les droit des auteurs et pour permettre la localisation des instants où le signal sonore a été falsifié. Dans cette thèse, nous proposons d’utiliser la représentation parcimonieuse bio-inspirée par graphe de décharges (spikegramme), pour concevoir une nouvelle méthode permettant la localisation de la falsification dans les signaux sonores. Aussi, une nouvelle méthode de protection du droit d’auteur. Finalement, une nouvelle attaque perceptuelle, en utilisant le spikegramme, pour attaquer des systèmes de tatouage sonore. Nous proposons tout d’abord une technique de localisation des falsifications (‘tampering’) des signaux sonores. Pour cela nous combinons une méthode à spectre étendu modifié (‘modified spread spectrum’, MSS) avec une représentation parcimonieuse. Nous utilisons une technique de poursuite perceptive adaptée (perceptual marching pursuit, PMP [Hossein Najaf-Zadeh, 2008]) pour générer une représentation parcimonieuse (spikegramme) du signal sonore d’entrée qui est invariante au décalage temporel [E. C. Smith, 2006] et qui prend en compte les phénomènes de masquage tels qu’ils sont observés en audition. Un code d’authentification est inséré à l’intérieur des coefficients de la représentation en spikegramme. Puis ceux-ci sont combinés aux seuils de masquage. Le signal tatoué est resynthétisé à partir des coefficients modifiés, et le signal ainsi obtenu est transmis au décodeur. Au décodeur, pour identifier un segment falsifié du signal sonore, les codes d’authentification de tous les segments intacts sont analysés. Si les codes ne peuvent être détectés correctement, on sait qu’alors le segment aura été falsifié. Nous proposons de tatouer selon le principe à spectre étendu (appelé MSS) afin d’obtenir une grande capacité en nombre de bits de tatouage introduits. Dans les situations où il y a désynchronisation entre le codeur et le décodeur, notre méthode permet quand même de détecter des pièces falsifiées. Par rapport à l’état de l’art, notre approche a le taux d’erreur le plus bas pour ce qui est de détecter les pièces falsifiées. Nous avons utilisé le test de l’opinion moyenne (‘MOS’) pour mesurer la qualité des systèmes tatoués. Nous évaluons la méthode de tatouage semi-fragile par le taux d’erreur (nombre de bits erronés divisé par tous les bits soumis) suite à plusieurs attaques. Les résultats confirment la supériorité de notre approche pour la localisation des pièces falsifiées dans les signaux sonores tout en préservant la qualité des signaux. Ensuite nous proposons une nouvelle technique pour la protection des signaux sonores. Cette technique est basée sur la représentation par spikegrammes des signaux sonores et utilise deux dictionnaires (TDA pour Two-Dictionary Approach). Le spikegramme est utilisé pour coder le signal hôte en utilisant un dictionnaire de filtres gammatones. Pour le tatouage, nous utilisons deux dictionnaires différents qui sont sélectionnés en fonction du bit d’entrée à tatouer et du contenu du signal. Notre approche trouve les gammatones appropriés (appelés noyaux de tatouage) sur la base de la valeur du bit à tatouer, et incorpore les bits de tatouage dans la phase des gammatones du tatouage. De plus, il est montré que la TDA est libre d’erreur dans le cas d’aucune situation d’attaque. Il est démontré que la décorrélation des noyaux de tatouage permet la conception d’une méthode de tatouage sonore très robuste. Les expériences ont montré la meilleure robustesse pour la méthode proposée lorsque le signal tatoué est corrompu par une compression MP3 à 32 kbits par seconde avec une charge utile de 56.5 bps par rapport à plusieurs techniques récentes. De plus nous avons étudié la robustesse du tatouage lorsque les nouveaux codec USAC (Unified Audion and Speech Coding) à 24kbps sont utilisés. La charge utile est alors comprise entre 5 et 15 bps. Finalement, nous utilisons les spikegrammes pour proposer trois nouvelles méthodes d’attaques. Nous les comparons aux méthodes récentes d’attaques telles que 32 kbps MP3 et 24 kbps USAC. Ces attaques comprennent l’attaque par PMP, l’attaque par bruit inaudible et l’attaque de remplacement parcimonieuse. Dans le cas de l’attaque par PMP, le signal de tatouage est représenté et resynthétisé avec un spikegramme. Dans le cas de l’attaque par bruit inaudible, celui-ci est généré et ajouté aux coefficients du spikegramme. Dans le cas de l’attaque de remplacement parcimonieuse, dans chaque segment du signal, les caractéristiques spectro-temporelles du signal (les décharges temporelles ;‘time spikes’) se trouvent en utilisant le spikegramme et les spikes temporelles et similaires sont remplacés par une autre. Pour comparer l’efficacité des attaques proposées, nous les comparons au décodeur du tatouage à spectre étendu. Il est démontré que l’attaque par remplacement parcimonieux réduit la corrélation normalisée du décodeur de spectre étendu avec un plus grand facteur par rapport à la situation où le décodeur de spectre étendu est attaqué par la transformation MP3 (32 kbps) et 24 kbps USAC.
Resumo:
Le transfert des connaissances est une préoccupation constante pour les enseignants et les enseignantes. Pourtant, rares sont les études qui observent un transfert dans un cadre scolaire. Que se passe-t-il alors avec les connaissances des étudiants et des étudiantes s’ils ne les transfèrent pas? Ce projet de recherche vise dans un premier temps à explorer ce concept plutôt complexe qu’est le transfert des connaissances et dans un deuxième temps, à analyser si les étudiants et les étudiantes en Techniques d’intervention en loisir font du transfert lorsqu’ils sont placés devant un problème complexe à résoudre. Porté par le désir de comprendre ce qu’est le transfert des connaissances et de l’observer, ce projet a privilégié une approche qualitative descriptive. En ce sens, les quarante huit étudiantes et étudiants inscrits au cours de Recherche et développement d’activités de loisir ont été invités à participer à ce projet en tenant un journal de bord structuré dans lequel toutes les connaissances qu’ils ont utilisées ont été notées. Par la suite, des entrevues ciblées ont permis d’explorer en profondeur les propos de huit étudiantes et étudiants sélectionnés afin de comprendre leur processus cognitif. C’est ainsi qu’un portrait de l’utilisation des connaissances a pu être tracé. Au terme de ce projet de recherche, les résultats démontrent que pour assurer le transfert des connaissances, il faut que de concert, les étudiants et les étudiantes, le personnel enseignant ainsi que les gestionnaires y accordent une plus grande importance. Tout d’abord, pour comprendre ses fondements et pour le planifier au quotidien. Le transfert des connaissances n’est pas une étape finale d’un processus d’apprentissage, il est présent tout au long de celui-ci. Le transfert requiert du temps. Aussi, pour favoriser le transfert des connaissances, les étudiants doivent être placés dans des situations de résolution de problèmes complexes dans lesquelles ils sont encouragés à recontextualiser leurs connaissances.
Resumo:
La présente étude est une recherche qualitative de type exploratoire. Elle avait pour but de vérifier l'utilisation des connaissances biomédicales de deux groupes d'étudiantes infirmières de niveau collégial. L'échantillon était composé de 56 sujets : un groupe de 38 étudiantes en début de la deuxième année du programme de soins infirmiers et un groupe de 18 étudiantes de troisième année, en fin de programme. La capacité de référer aux connaissances biomédicales a été évaluée à l'aide d'une grille d'observation des réponses des sujets, à des questions proposées suite à la lecture d'un scénario portant sur une situation clinique. La grille d'observation est une adaptation d'un outil élaboré par Doris Carnevali (1984) portant sur le «self-monitoring of diagnostic reasoning behaviors». Quant au scénario, il fut construit en tenant compte des connaissances des étudiantes et en fonction des objectifs de cette recherche. Ces outils ont été validés auprès d'enseignantes du programme de soins infirmiers et d'étudiantes de première année dans ce programme et auprès d'une experte en démarche de soins infirmiers. Ils ont été aussi pré-expérimentés auprès d'un groupe de six étudiantes ayant terminé leur première année. Les données portant sur les réponses écrites des étudiantes à propos de l'identification de problèmes à traiter en collaboration, via un scénario, ont été traitées par une méthode d'analyse qualitative de contenu. Les résultats font l'objet d'une analyse exhaustive. Ils ont permis de ressortir les catégories reliées au raisonnement diagnostique et aux processus cognitifs et tendent à démontrer que les étudiantes en soins infirmiers utilisent leurs connaissances biomédicales lorsqu'elles ont à résoudre un problème de soins infirmiers à l'aide d'une histoire de cas fictive. Les résultats semblent prometteurs quant au transfert des connaissances biomédicales et de soins infirmiers (théoriques et pratiques) des étudiantes dans un contexte de résolution de problèmes. Ils incitent à revoir nos approches pédagogiques quant à l'enseignement théorique des problèmes de santé abordés dans le programme de soins infirmiers. Ils invitent aussi à réexaminer des attitudes des enseignantes face à l'utilisation de ces connaissances dans un contexte de soins direct à la clientèle. De plus, ils ouvrent des avenues intéressantes pour la poursuite de la recherche dans le domaine de l'enseignement et de l'intervention infirmière.
Resumo:
La présente recherche, à caractère descriptif, avait comme objectif général de dresser un bilan des pratiques professionnelles de nouvelles enseignantes et de nouveaux enseignants du collégial à partir d'une autoévaluation de leur enseignement. Le contexte particulier dans lequel s'inscrit l'enseignement collégial suscite bien des réflexions quant à l'insertion professionnelle du nouveau personnel enseignant. La diversité des profils des enseignantes et des enseignants qui entrent au collégial avec ou sans formation initiale en pédagogie, la complexité de la tâche et le renouvellement massif du corps professoral accentuent le rôle important des institutions dans le soutien à offrir, et ce, tout au long du développement professionnel et plus particulièrement dans la période d'insertion professionnelle. Les fondements de la recherche s'appuient sur les concepts de développement professionnel, d'insertion professionnelle et d'identité professionnelle et sur la politique de gestion des ressources humaines des collèges. Cette politique s'applique à travers les programmes qui y sont rattachés, notamment le programme d'insertion professionnelle et celui d'évaluation des enseignants. La grille d'analyse a été élaborée à partir du profil de compétences du Conseil supérieur de l'éducation. Le fait que les enseignantes et les enseignants participent à un programme d'évaluation dans une optique de développement professionnel a orienté les choix méthodologiques de la recherche et a permis d'atteindre les objectifs spécifiques. Ceux-ci étaient de recueillir les perceptions qu'ont les enseignantes et les enseignants novices de leurs pratiques professionnelles lors de l'autoévaluation de leur enseignement, d'effectuer un bilan de ces pratiques professionnelles et de cibler les éléments qui semblent les plus difficiles, cela pouvant servir à dégager des pistes d'accompagnement pour le nouveau personnel enseignant. Une approche méthodologique interprétative a été adoptée. Les données provenaient d'un organisme externe, le Centre d'Intervention et de Recherche en Évaluation du Personnel Enseignant, avec le consentement éclairé des individus constituant l'échantillon. Celui-ci compte 30 enseignantes et enseignants du secteur régulier de quatre collèges publics francophones, qui avaient deux ans et moins d'expérience en enseignement collégial. Une analyse combinée des deux types de données — les données issues des réponses fermées des questionnaires d'autoévaluation et celles issues des variables contextuelles et des commentaires — a fait ressortir les forces et les difficultés que le nouveau personnel éprouve dans ses pratiques, auxquelles on puisse apporter une valorisation ou un soutien, selon les besoins. En ce sens, il apparaît d'une part, que les modes d'apprentissage de la profession enseignante sont fort diversifiés. D'autre part, la majorité des nouvelles enseignantes et des nouveaux enseignants qui entrent dans la profession rencontrent des difficultés liées aux dimensions pédagogiques et didactiques du métier. Cela a permis de dégager des pistes qui ont trait, par exemple, à la gestion de classe, à l'évaluation des apprentissages ou encore à l'utilisation de la langue d'enseignement. Ces pistes pourraient éventuellement assurer le soutien de ce nouveau personnel et maintenir chez lui l'enthousiasme et la passion qui le motivent.
Resumo:
Si on considère l'atteinte de l'autonomie comme étant un cheminement progressif, l'enseignante ou l'enseignant doit concevoir des stratégies d'apprentissage dans l'optique que ses interventions auprès des élèves deviennent de moins en moins fréquentes. On permet ainsi à ces derniers de prendre davantage le contrôle de leurs apprentissages et on réduit leur dépendance envers l'enseignant. Cette recherche porte sur le développement de l'autonomie dans l'utilisation des logiciels et présente une méthode d'enseignement sur l'utilisation de la fonction "Aide" des logiciels qui donne à l'élève des stratégies lui permettant d'être l'agent de son propre développement. De quelle manière pouvons-nous amener l'élève à utiliser l'"Aide" des logiciels, de façon stratégique, lorsqu'il doit se débrouiller par lui-même? La démarche de résolution de problèmes peut-elle lui être utile? Quelles sont les connaissances susceptibles de le mener graduellement vers la réussite et de le guider progressivement vers l'autonomie? Autant de questions auxquelles la recherche s'intéresse. Nous avons d'abord élaboré une stratégie d'enseignement, construit des instruments pour soutenir la démarche et conçu un modèle d'utilisation de la stratégie. Nous l'avons ensuite validée, par sa mise à l'essai auprès d'un groupe de neuf élèves et nous en avons, enfin, évalué les résultats. Différents instruments tels que grilles d'observation, questionnaires d'entrevue, fiches d'expérimentation, procéduriers et documents réalisés par les élèves ont permis de recueillir des données qui ont servi à l'évaluation de la stratégie. L'analyse de ces données révèle que la performance des élèves pour l'exécution des tâches s'est nettement améliorée après qu'on leur ait enseigné à utiliser la fonction "Aide" et révèle, également, qu'ils l'utilisent de façon plus adéquate. D'autres analyses confirment que le fait d'organiser une stratégie d'enseignement en fonction des catégories de connaissances (déclaratives, procédurales et conditionnelles) est un moyen de favoriser un meilleur engagement cognitif des élèves dans leurs apprentissages. La résolution de problèmes, démarche intégrée à la fiche d'expérimentation utilisée par ces derniers, a fourni un cadre pour utiliser leurs connaissances et préciser leurs stratégies. Les résultats obtenus permettent d'affirmer que les objectifs de la recherche ont été atteints. La mise en place d'activités complexes et variées a permis la construction du savoir stratégique. La démarche de résolution de problèmes a favorisé la réutilisation des connaissances dans différents contextes. Les modèles cognitiviste et constructiviste dont s'inspire la stratégie d'enseignement, ont incité les élèves à recourir à la fonction "Aide" ainsi qu'à leurs connaissances antérieures et à les associer à des contextes d'action où ils ont transféré leurs apprentissages de façon plus autonome. Enseigner à utiliser la fonction "Aide" des logiciels est une pratique qui devrait être intégrée dans les activités pédagogiques de toute enseignante ou enseignant désireux de développer l'autonomie de ses élèves dans l'utilisation de nouveaux logiciels. Cela doit, cependant, résulter d'une démarche structurée incluant des instruments élaborés de manière à induire chez les élèves, de façon progressive, un comportement les menant vers l'autonomie souhaitée.
Resumo:
Résumé : En imagerie médicale, il est courant d’associer plusieurs modalités afin de tirer profit des renseignements complémentaires qu’elles fournissent. Par exemple, la tomographie d’émission par positrons (TEP) peut être combinée à l’imagerie par résonance magnétique (IRM) pour obtenir à la fois des renseignements sur les processus biologiques et sur l’anatomie du sujet. Le but de ce projet est d’explorer les synergies entre l’IRM et la TEP dans le cadre d’analyses pharmacocinétiques. Plus spécifiquement, d’exploiter la haute résolution spatiale et les renseignements sur la perfusion et la perméabilité vasculaire fournis par l’IRM dynamique avec agent de contraste afin de mieux évaluer ces mêmes paramètres pour un radiotraceur TEP injecté peu de temps après. L’évaluation précise des paramètres de perfusion du radiotraceur devrait permettre de mieux quantifier le métabolisme et de distinguer l’accumulation spécifique et non spécifique. Les travaux ont porté sur deux radiotraceurs de TEP (18F-fluorodésoxyglucose [FDG] et 18F-fluoroéthyle-tyrosine [FET]) ainsi que sur un agent de contraste d’IRM (acide gadopentétique [Gd DTPA]) dans un modèle de glioblastome chez le rat. Les images ont été acquises séquentiellement, en IRM, puis en TEP, et des prélèvements sanguins ont été effectués afin d’obtenir une fonction d’entrée artérielle (AIF) pour chaque molécule. Par la suite, les images obtenues avec chaque modalité ont été recalées et l’analyse pharmacocinétique a été effectuée par régions d’intérêt (ROI) et par voxel. Pour le FDG, un modèle irréversible à 3 compartiments (2 tissus) a été utilisé conformément à la littérature. Pour la FET, il a été déterminé qu’un modèle irréversible à 2 tissus pouvait être appliqué au cerveau et à la tumeur, alors qu’un modèle réversible à 2 tissus convenait aux muscles. La possibilité d’effectuer une conversion d’AIF (sanguine ou dérivée de l’image) entre le Gd DTPA et la FET, ou vice versa, a aussi été étudiée et s’est avérée faisable dans le cas des AIF sanguines obtenues à partir de l’artère caudale, comme c’est le cas pour le FDG. Finalement, l’analyse pharmacocinétique combinée IRM et TEP a relevé un lien entre la perfusion du Gd-DTPA et du FDG, ou de la FET, pour les muscles, mais elle a démontré des disparités importantes dans la tumeur. Ces résultats soulignent la complexité du microenvironnement tumoral (p. ex. coexistence de divers modes de transport pour une même molécule) et les nombreux défis rencontrées lors de sa caractérisation chez le petit animal.
Resumo:
Le rôle central du phytoplancton à la base de la chaîne trophique aquatique motive une compréhension étayée des facteurs pouvant faire varier les populations et la composition des populations de phytoplancton. Cette compréhension est d'autant plus importante dans le contexte actuel, puisque nous savons que l'humain influence le climat et les milieux aquatiques par sa présence et ses activités. Nous tentons donc, dans notre étude, de déterminer les variables environnementales importantes qui dictent les changements de taille et de composition de la communauté de phytoplancton à l'échelle d'un lac et d'en déduire les niches réalisées des différentes espèces du lac. L'utilisation d'une station mobile de manière verticale dans le lac Montjoie (Saint-Denis-de-Brompton) a permis de collecter des données in situ à haute fréquence et résolution temporelle caractérisant la colonne d'eau. Combinée à ces mesures, une banque de données sur l'abondance de différentes catégories de phytoplancton a été créée à l'aide d'un cytomètre en flux imageur (IFCB) et d'un programme de reconnaissance d'images qui lui est associé. En combinant ces données nous avons déterminé que la température moyenne au-dessus de la thermocline et que la profondeur limite de chlorophylle (2 écarts-types sous le maximum de chlorophylle) étaient les 2 variables (parmi les variables mesurées) les plus appropriées pour déterminer les niches réalisées de nos catégories de phytoplancton. À l'aide de ces 2 variables, nous avons pu déterminer les niches réalisées d'une trentaine de catégories présentes dans notre lac. Les niches ont été déterminées à la fois sur les données d'abondance et sur les données de taux de croissance nette à l'aide de deux méthodes différentes, soit l'analyse canonique des correspondances (CCA) et la maximisation de l'entropie d'information (MaxEnt). Ce sont finalement les niches déterminées avec les taux de croissance nette qui sont les plus pertinentes. Les deux méthodes ont donné des résultats semblables, mais c'est MaxEnt qui est la plus versatile pour l'ajout de nouvelles variables explicatives et c'est donc celle-ci que nous privilégierons dans le futur.
Resumo:
Dans les turbomachines, le bruit du volume tournant est considéré comme une source majeure d’inconfort. La connaissance et l’identification des sources de bruit du rotor sont primordiales pour la conception d’une machine silencieuse et énergétiquement plus efficace. Ce document examine la capacité à la fois de la décomposition orthogonale aux valeurs (POD) et la décomposition aux valeurs singulières (SVD) à identifier les zones sur la surface d’une source (pale de ventilateur) fixe ou en mouvement subsonique qui contribuent le plus à la puissance acoustique rayonnée. La méthode de calcul de la dynamique des fluides (CFD) du code source OpenFoam est utilisée comme une première étape pour évaluer le champ de pression à la surface de la pale en mouvement subsonique. Les fluctuations de ce champ de pression permettent d’estimer à la fois le bruit de charge et la puissance sonore qui est rayonnée par la pale basée sur l’analogie acoustique de Ffowcs Williams et Hawkings (FW&H). Dans une deuxième étape, le bruit de charge estimé est également utilisé tant pour les approches POD et SVD. On remarque que la puissance sonore reconstruite par les deux dernières approches en se fondant uniquement sur les modes acoustiques les plus importants est similaire à celle prédite par l’analogie de FW&H. De plus, les modes les plus rayonnants estimés par la méthode SVD sont projetés sur la surface de la pale, mettant ainsi en évidence leurs emplacements. Il est alors prévu que cette identification soit utilisée comme guide pour l’ingénieur dans la conception d’une roue moins bruyante.
Resumo:
Les mesures satellitaires de réflectance de télédétection (Rrs) associée à la fluorescence de la chlorophylle-a induite par le soleil (FCIS), notées Rrs,f , sont largement utilisées dans le domaine de l’océanographie converties sous la forme de rendement quantique de la fluorescence (QYF). Le QYF permet de déterminer l’impact de l’environnement sur la croissance du phytoplancton. Tout comme les autres mesures qui reposent sur la luminance montante, le QYF, et donc la Rrs,f , sont influencés par les effets de bidirectionnalité. Ainsi, sachant que la variabilité naturelle du QYF est faible, les biais engendrés par une normalisation inadéquate de la Rrs,f peuvent avoir des impacts importants sur l’interprétation des mesures de QYF à l’échelle planétaire. La méthode actuelle utilisée pour corriger la dépendance angulaire du signal observé dans la bande de fluorescence par le spectroradiomètre imageur à résolution moyenne (MODIS), embarqué à bord du satellite Aqua, repose sur l’application d’une table de correspondance (LUT) développée par Morel et al. (2002). Toutefois, l’approche de Morel et al. (2002) ne tient pas compte du caractère isotrope de la FCIS ce qui induit des biais systématiques sur les mesures de Rrs,f selon la latitude, par exemple. Dans ce mémoire, une nouvelle méthode de calcul de la LUT ayant pour but de réduire ces biais est introduite. Tout d’abord, celle-ci intègre une mise à jour des propriétés optiques inhérentes (IOPs) dans le modèle de transfert radiatif sur la base de publications plus récentes. Ensuite, la gamme spectrale de son application est élargie à la bande de fluorescence contrairement à la méthode actuelle qui se limite à la longueur d’onde de 660 nm. Finalement, la LUT révisée tient compte des trois composantes principales de la réflectance de télédétection que sont (1) la rétrodiffusion élastique de la lumière par les molécules d’eau et par les particules en suspension, (2) la diffusion Raman (inélastique) par les molécules d’eau et (3) la FCIS. Les résultats de Rrs,f normalisées avec la nouvelle méthode présentent une différence de dispersion moyenne par rapport à celle obtenue par l’application de la méthode de Morel et al. (2002) de l’ordre de -15 %. Des différences significatives, de l’ordre de -22 %, sont observées à de grands angles d’observation et d’éclairement (> 55 %).
Resumo:
La mammite bovine est l’inflammation des tissus internes de la glande mammaire des vaches laitières. Elle est la plupart du temps causée par l’intrusion d’agents pathogènes dans le canal du trayon de la glande mammaire causant ainsi une infection intramammaire (IIM). La mammite engendre des pertes économiques importantes pour l’industrie laitière en raison de la faible production du lait, des coûts de traitements élevés, la présence de résidus d’antibiotiques dans le lait suite à leur utilisation, le rejet de lait non destiné à la consommation et les faibles taux de rendement pendant la transformation du lait en divers produits laitiers. Le développement de l’inflammation est souvent associé au degré d’exposition des glandes mammaires aux pathogènes. Staphylococcus aureus est le pathogène le plus souvent responsable de la mammite bovine au Canada. Il est capable de causer des infections intramammaires persistantes sous-cliniques souvent réfractaires à l’antibiothérapie. En outre, le biofilm représente un facteur de virulence clé dans la persistance de S. aureus pendant la mammite, car il augmente la résistance des bactéries contre les antibiotiques grâce à la matrice extracellulaire qui recouvre et protège la communauté. Le biofilm représente donc, une problématique majeure de l’industrie laitière et le besoin de nouveaux outils thérapeutiques alternatifs adressant ce facteur de virulence est très urgent. Le chitosane est une molécule naturelle extraite de la carapace des crustacés. Elle est exploitée pour de multiples applications biologiques, y compris certaines activités antibiofilm. Dans cette étude, nous avons démontré que les formes de 2,6 kDa et 4 kDa empêchaient la production de biofilm des souches : S. aureus 2117 (forte productrice du biofilm) et le SARM bovin (S. aureus résistant à la méthicilline). Chez la souris, l’administration d’un chitosane de 2,6 kDa n’a démontré aucun effet inflammatoire comparativement au 4 kDa. Les tests de bactéricidie ont démontré que le 2,6 kDa était capable de tuer les bactéries incorporées dans les biofilms préformés d'une manière dose-réponse avec une réduction de > 3 log[indice inférieur 10] CFU / biofilm à la concentration de 4 mg / ml. En culture cellulaire, nous avons observé que le chitosane de 2,6 kDa pouvait empêcher la persistance du SARM bovin dans les cellules épithéliales bovines MAC-T. Les tests de combinaison sur plaque ont révélé que le 2,6 kDa produit une synergie avec les antibiotiques de la classe des macrolides (par exemple, la tilmicosine) contre S. aureus, en réduisant la CMI des deux molécules par 2-8 fois. Finalement, l'administration intramammaire de 2,6 kDa, seul (p <0,01) ou en combinaison avec la tilmicosine (p <0,0001), a réduit la colonisation de S. aureus dans les glandes mammaires de notre modèle de mammite aigu murin.
Resumo:
Dans un monde où plus de la moitié de la population demeure désormais en milieu urbain, et où les villes exercent une pression toujours plus importante sur les ressources naturelles et les écosystèmes, il est plus que jamais essentiel de remplacer les modes traditionnels d’urbanisation par de nouvelles pratiques axées sur le développement durable. C’est dans ce contexte qu’ont émergé les premiers écoquartiers en Europe, puis en Amérique du Nord, au cours des dernières décennies. Le Québec accuse un certain retard en ce qui concerne le développement de ce type de quartiers durables, notamment axés sur une gestion plus efficiente et environnementalement responsable des matières résiduelles. Avec l’aide des outils législatifs et politiques en vigueur, la mise en place de nouveaux écoquartiers constitue une occasion d’optimiser la gestion des matières résiduelles dans la province, tout en assurant un développement urbain respectueux des principes du développement durable. La mise en oeuvre de pratiques de gestion des matières résiduelles inspirées d’exemples européens et nord-américains faciliterait aussi le développement de nouveaux projets d’écoquartiers au Québec. C’est dans ce contexte que s’inscrit l’objectif principal du présent essai, soit de proposer des modèles européens et nord-américains de gestion des matières résiduelles, afin de les intégrer aux projets d’écoquartiers actuels et futurs au Québec. Les cinq écoquartiers retenus en guise de modèles parmi les douze analysés ont, à l’instar des autres, obtenu une performance environnementale élevée; cependant, c’est leur application fructueuse des sphères économique et sociale du développement durable qui leur ont permis de se démarquer, notamment en ce qui concerne le niveau d’implication citoyenne dans ces quartiers. La transférabilité des pratiques de gestion des matières résiduelles de ces modèles, soit Augustenborg, BedZED, EVA-Lanxmeer, Hammarby Sjöstad et Kronsberg, dans le contexte québécois a été évaluée. Les pratiques retenues, au nombre de trois par écoquartier, semblent généralement transférables au Québec sans que des modifications majeures ne soient nécessaires. Néanmoins, certaines de ces pratiques, dont la tenue de réunions citoyennes de planification environnementale analogues à celles d’EVA-Lanxmeer, nécessitent un changement de mentalité important de la part de la population et des décideurs politiques, ce qui risque d’en compliquer ou retarder l’application. D’autres pratiques nécessiteraient certains investissements en matière d’infrastructures ou de formation. En fin de compte, ces pratiques et les recommandations formulées en conclusion de l’essai constituent autant d’opportunités de développer une gestion des matières résiduelles plus efficace et durable au Québec, en autant que la volonté politique et la participation citoyenne soient au rendez-vous.