15 resultados para IT order list

em Université de Montréal, Canada


Relevância:

30.00% 30.00%

Publicador:

Resumo:

Salmonella enterica sérovar Typhi (Typhi) est une bactérie pathogène spécifique à l’homme. Typhi est l’agent étiologique de la fièvre typhoïde chez l’humain, causant plus de 16 millions de nouveaux cas par année et plus de 600 000 morts. Il a été démontré que pour causer une infection systémique, Salmonella doit nécessairement survivre dans les macrophages de l'hôte. Paradoxalement, S. enterica sérovar Typhimurium, très apparenté à Typhi (près de 90 % d’homologie), n’a pas la capacité de se disséminer dans l’organisme humain et peut infecter plusieurs espèces animales. Nous avons antérieurement identifié 36 gènes uniques à Typhi (absents chez Typhimurium) situés sur 15 régions différentes et exprimés sélectivement lors de l’infection de macrophages humains. Ainsi, l’une de ces régions a suscité notre attention, soit la région sty4217-4222 et plus particulièrement le produit du gène sty4221, une aminotransférase hypothétique. Ce dernier gène est d’intérêt dû à l’homologie qu’il détient avec une hémolysine connue (Hly) produite par Treponema denticola, possédant elle-même une activité d’aminotransférase. Chez T. denticola, Hly dégrade la cystéine et produit du H2S qui est toxique pour l’hôte. Notre hypothèse est que la spécificité d’hôte et la capacité de produire une infection systémique de Typhi sont dues à l’expression de gènes qui ne se retrouvent pas chez d’autres salmonelles. Le but de cette étude était donc de caractériser le gène sty4221 quant à son activité hémolytique, cytotoxique et tenter de déterminer son rôle dans la virulence de cette bactérie. Le gène sty4221 a été cloné sous le contrôle d’un promoteur inductible à l’arabinose et exprimé par E. coli. L’activité hémolytique du clone a été déterminée par simple observation sur gélose sang. Ce clone a également permis d’observer l’effet cytotoxique du surnageant de culture sur différentes lignées cellulaires, par quantification de la relâche de LDH. Le gène sty4221 a été muté chez la souche sauvage de Typhi, ISP1820, l’implication pathogénique du gène a ainsi pu être étudiée. Des tests de phagocytose, d’invasion et de survie dans des macrophages humains ont été effectués, ainsi que des tests d’adhésion et d’invasion sur des cellules HeLa. Par ailleurs, une première tentative de purification de la protéine a été entreprise. En somme, nous savons maintenant que STY4221 a des propriétés hémolytiques, augmentées par la présence de cystéine. De plus, STY4221 a un effet cytotoxique sur les macrophages THP-I, mais aucun effet sur les HeLa. Or, sty4221 ne semble pas impliqué dans les étapes d’adhésion, d’invasion, de phagocytose ou de survie. La caractérisation de sty4221 permettra sans doute d’approfondir nos connaissances sur les toxines trouvées uniquement chez Typhi.

Relevância:

30.00% 30.00%

Publicador:

Resumo:

Dans l’historiographie du cinéma québécois, un certain manque est notable concernant le cinéma populaire du début des années 1970 (1968-1975). Historiens et chercheurs accordèrent peu d’importance à cette section de notre cinématographie par déni d’un type de cinéma populaire exploitant la sexualité. Ce qui fut péjorativement appelé la vague de « films de fesses » n’eut droit à aucune étude académique sérieuse et nous proposons, donc, de la revisiter afin de mieux comprendre son apparition et son existence. Dans ce dessein, nous suggérons de l’aborder sous l’angle du cinéma d’exploitation, cinéma populaire méconnu et controversé. Pour cela, nous devrons expliquer les contours de ce cinéma puisque, lui aussi, souffre d’un léger manque d’études sérieuses et approfondies. Nous ferons au premier chapitre un panorama de la norme cinématographique qu’est le cinéma hollywoodien, afin de bien cerner, au deuxième chapitre, le cinéma d’exploitation qui selon nous s’efforce d’être en constante opposition avec le cinéma mainstream. Par la suite, nous mettrons en place le contexte socio-historique et cinématographique qui permit l’apparition d’un cinéma d’exploitation québécois et nous ferons l’énumération des différents titres qui se retrouvent dans ce corpus filmique. Les chapitres IV et V présenteront les analyses de différentes œuvres qui, selon nous, récupèrent de façon partielle ou totale des éléments du cinéma d’exploitation afin de créer une résistance culturelle quant au cinéma dominant américain.

Relevância:

30.00% 30.00%

Publicador:

Resumo:

Cette thèse est composée de trois essais liés à la conception de mécanisme et aux enchères. Dans le premier essai j'étudie la conception de mécanismes bayésiens efficaces dans des environnements où les fonctions d'utilité des agents dépendent de l'alternative choisie même lorsque ceux-ci ne participent pas au mécanisme. En plus d'une règle d'attribution et d'une règle de paiement le planificateur peut proférer des menaces afin d'inciter les agents à participer au mécanisme et de maximiser son propre surplus; Le planificateur peut présumer du type d'un agent qui ne participe pas. Je prouve que la solution du problème de conception peut être trouvée par un choix max-min des types présumés et des menaces. J'applique ceci à la conception d'une enchère multiple efficace lorsque la possession du bien par un acheteur a des externalités négatives sur les autres acheteurs. Le deuxième essai considère la règle du juste retour employée par l'agence spatiale européenne (ESA). Elle assure à chaque état membre un retour proportionnel à sa contribution, sous forme de contrats attribués à des sociétés venant de cet état. La règle du juste retour est en conflit avec le principe de la libre concurrence puisque des contrats ne sont pas nécessairement attribués aux sociétés qui font les offres les plus basses. Ceci a soulevé des discussions sur l'utilisation de cette règle: les grands états ayant des programmes spatiaux nationaux forts, voient sa stricte utilisation comme un obstacle à la compétitivité et à la rentabilité. Apriori cette règle semble plus coûteuse à l'agence que les enchères traditionnelles. Nous prouvons au contraire qu'une implémentation appropriée de la règle du juste retour peut la rendre moins coûteuse que des enchères traditionnelles de libre concurrence. Nous considérons le cas de l'information complète où les niveaux de technologie des firmes sont de notoriété publique, et le cas de l'information incomplète où les sociétés observent en privée leurs coûts de production. Enfin, dans le troisième essai je dérive un mécanisme optimal d'appel d'offre dans un environnement où un acheteur d'articles hétérogènes fait face a de potentiels fournisseurs de différents groupes, et est contraint de choisir une liste de gagnants qui est compatible avec des quotas assignés aux différents groupes. La règle optimale d'attribution consiste à assigner des niveaux de priorité aux fournisseurs sur la base des coûts individuels qu'ils rapportent au décideur. La manière dont ces niveaux de priorité sont déterminés est subjective mais connue de tous avant le déroulement de l'appel d'offre. Les différents coûts rapportés induisent des scores pour chaque liste potentielle de gagnant. Les articles sont alors achetés à la liste ayant les meilleurs scores, s'il n'est pas plus grand que la valeur de l'acheteur. Je montre également qu'en général il n'est pas optimal d'acheter les articles par des enchères séparées.

Relevância:

30.00% 30.00%

Publicador:

Resumo:

La substitution est une méthode de prévention primaire qui permet l’élimination à la source des dangers pour les travailleurs. Une des étapes de la démarche est la comparaison des options afin de procéder au choix final. Divers indices de comparaison, basés sur des paramètres physicochimiques, sanitaires et environnementaux des substances, permettent de guider ce choix. Toutefois, aucune évaluation de ces indices n’a été effectuée dans le cas de la substitution des solvants. Une recherche de développement a été entreprise afin de proposer une méthodologie améliorée de comparaison des solvants. La démarche d’analyse de substitution et la comparaison des options de remplacement à l’aide du rapport de danger de vapeur (« Vapour Hazard Ratio », VHR) ont été appliquées à un cas réel de substitution de solvants en entreprise. Trois indices de potentiel de surexposition (IPS) (VHR, « Måleteknisk Arbejdshygiejnisk Luftbehov » (MAL) et « SUBstitution FACtor » (SUBFAC)) et trois indices globaux de hiérarchisation des dangers (indice air (ψiair), « Indiana Relative Chemical Hazard Score » (IRCHS) et « Final Hazard Score » (FHS)) ont été évalués et comparés à partir de listes de 56 et 67 solvants respectivement. La problématique de la non-idéalité des mélanges a aussi été considérée par rapport aux IPS par l’évaluation et la comparaison de 50 mélanges de solvant. Une méthodologie d’établissement d’une valeur limite d’exposition (VLE), pour les solvants n’en possédant pas, a été développée par modélisation de type relations quantitatives propriété-propriété (QPPR). La modélisation QPPR des VLE, effectuée sur une liste de 88 solvants possédant une VLE, a été effectuée à partir des coefficients de partage octanol:air, octanol:eau, sang:air et des constantes métaboliques. L’étude de cas a montré que l’utilisation du VHR facilitait la comparaison des options, bien qu’elle puisse se heurter à l’absence de VLE. Les indices VHR et SUBFAC ont été identifiés comme des méthodes très proches, caractérisées par une forte corrélation (R=0,99) alors que l’indice MAL se distingue des deux autres IPS par une perte d’information sur la volatilité résultant en une corrélation plus faible avec le VHR (R=0,75). L’impact de la non idealité, évalué par le calcul de coefficients d’activité sur une série de 50 mélanges, a permis d’établir que les ratios entre les indices VHR corrigés et non corrigés variaient entre 0,57 et 2,7, suggérant un facteur de sécurité de cinq lors de la comparaison de mélanges. Les analyses de corrélation et de sensibilité ont montré que les indices de hiérarchisation des dangers différaient de façon importante sur leur prise en compte de paramètres comme la volatilité, les VLE, l’exposition cutanée, l’inflammabilité, la cancérogénicité et les divers paramètres environnementaux. Aucun de ces indices ne peut être recommandé pour la substitution des solvants. Deux modèles QPPR ont été développés afin de prédire des VLE et des VHR, et 61 % et 87 % des VHR prédits variaient respectivement d’un facteur maximal de deux et de cinq par rapport aux VHR calculés. Nos résultats mènent à proposer une démarche améliorée de comparaison en deux étapes. Après un tri selon des critères prioritaires de santé, de sécurité et d’environnement, la comparaison devrait se baser sur le calcul du VHR tout en considérant d’autres paramètres selon la situation concrète de l’entreprise ou du procédé. La comparaison devra tenir compte de la non-idéalité pour les mélanges, et de VLE estimées pour les solvants n’en possédant pas.

Relevância:

30.00% 30.00%

Publicador:

Resumo:

« Il va sans dire que c’est l’expérience du traduire qui constitue le centre de gravité de mon rapport général à la traduction. Je ne suis traductologue que parce que je suis, primordialement, traducteur » (Berman 2001, p. 16). La théorie de la traduction d’Antoine Berman serait donc enracinée dans sa pratique. Bien que son nom soit devenu incontournable en traductologie et que ses idées aient suscité de nombreux débats, peu de chercheurs ont étudié le lien entre la théorie et la pratique de ce traductologue. Le présent mémoire tente de combler cette lacune. Au moyen d’une analyse de la traduction de El juguete rabioso de Roberto Arlt faite par les époux Berman, il explore comment la pratique et la théorie de la traduction d’Antoine Berman se sont nourries l’une de l’autre. Le premier chapitre retrace le parcours d’Antoine Berman : son travail de traducteur, ses influences, sa théorie de la traduction, l’impact de celle-ci et les critiques qui lui ont été adressées. Dans le chapitre deux, nous découvrons Roberto Arlt et son œuvre afin de bien cerner les enjeux de sa traduction. Le chapitre trois analyse, selon la méthode bermanienne, la traduction française de ce roman publiée pour la première fois en 1984. Deux éléments du texte sont mis en relief : la diversité de registres discursifs, dont les sociolectes argentins, et la richesse lexicale qui en découle. En conclusion, l’étude montre que Le jouet enragé est marqué par une certaine inhibition et une rigidité sans doute inhérentes à toute traduction-introduction. Trop attachée aux normes, cette première version restitue timidement la diversité narrative de l’original. Ainsi, on peut supposer que les préceptes de Berman, et plus exactement sa liste de « tendances déformantes » (Berman 1999) reflètent, en partie, et avant tout, les limites et les difficultés qu’il a pu rencontrer dans l’exercice de sa pratique.

Relevância:

30.00% 30.00%

Publicador:

Resumo:

Contexte général La Côte d'Ivoire est un pays de l’Afrique de l’Ouest qui a décidé, depuis 2001, d'étendre la couverture des prestations de santé à toute sa population. En effet, cette réforme du système de santé avait pour but de fournir, à chaque ivoirien, une couverture médicale et pharmaceutique. Toutefois, la mise en œuvre de cette réforme était difficile car, contrairement aux pays développés, les pays en développement ont un secteur « informel » échappant à la législation du travail et occupant une place importante. En conséquence, il a été recommandé qu’il y ait deux caisses d'assurance santé, une pour le secteur formel (fonctionnaires) et l'autre pour le secteur informel. Ces caisses auraient légitimité en ce qui a trait aux décisions de remboursement de médicaments. D’ores-et-déjà, il existe une mutuelle de santé appelée la Mutuelle Générale des Fonctionnaires et Agents de l'État de Côte d'Ivoire (MUGEFCI), chargée de couvrir les frais médicaux et pharmaceutiques des fonctionnaires et agents de l’Etat. Celle-ci connaît, depuis quelques années, des contraintes budgétaires. De plus, le processus actuel de remboursement des médicaments, dans cette organisation, ne prend pas en considération les valeurs implicites liées aux critères d'inscription au formulaire. Pour toutes ces raisons, la MUGEFCI souhaite se doter d’une nouvelle liste de médicaments remboursables, qui comprendrait des médicaments sécuritaires avec un impact majeur sur la santé (service médical rendu), à un coût raisonnable. Dans le cadre de cette recherche, nous avons développé une méthode de sélection des médicaments pour des fins de remboursement, dans un contexte de pays à faibles revenus. Cette approche a ensuite été appliquée dans le cadre de l’élaboration d’une nouvelle liste de médicaments remboursables pour la MUGEFCI. Méthode La méthode de sélection des médicaments remboursables, développée dans le cadre de cette recherche, est basée sur l'Analyse de Décision Multicritère (ADM). Elle s’articule autour de quatre étapes: (1) l'identification et la pondération des critères pertinents d'inscription des médicaments au formulaire (combinant revue de la littérature et recherche qualitative, suivies par la réalisation d’une expérience de choix discrets); (2) la détermination d'un ensemble de traitements qui sont éligibles à un remboursement prioritaire; (3) l’attribution de scores aux traitements selon leurs performances sur les niveaux de variation de chaque critère, et (4) le classement des traitements par ordre de priorité de remboursement (classement des traitements selon un score global, obtenu après avoir additionné les scores pondérés des traitements). Après avoir défini la liste des médicaments remboursables en priorité, une analyse d’impact budgétaire a été réalisée. Celle-ci a été effectuée afin de déterminer le coût par patient lié à l'utilisation des médicaments figurant sur la liste, selon la perspective de la MUGEFCI. L’horizon temporel était de 1 an et l'analyse portait sur tous les traitements admissibles à un remboursement prioritaire par la MUGEFCI. En ce qui concerne la population cible, elle était composée de personnes assurées par la MUGEFCI et ayant un diagnostic positif de maladie prioritaire en 2008. Les coûts considérés incluaient ceux des consultations médicales, des tests de laboratoire et des médicaments. Le coût par patient, résultant de l'utilisation des médicaments figurant sur la liste, a ensuite été comparé à la part des dépenses par habitant (per capita) allouée à la santé en Côte d’Ivoire. Cette comparaison a été effectuée pour déterminer un seuil en deçà duquel la nouvelle liste des médicaments remboursables en priorité était abordable pour la MUGEFCI. Résultats Selon les résultats de l’expérience de choix discrets, réalisée auprès de professionnels de la santé en Côte d'Ivoire, le rapport coût-efficacité et la sévérité de la maladie sont les critères les plus importants pour le remboursement prioritaire des médicaments. Cela se traduit par une préférence générale pour les antipaludiques, les traitements pour l'asthme et les antibiotiques indiqués pour les infections urinaires. En outre, les résultats de l’analyse d’impact budgétaire suggèrent que le coût par patient lié à l'utilisation des médicaments figurant sur la liste varierait entre 40 et 160 dollars américains. Etant donné que la part des dépenses par habitant allouées à la santé en Côte d’Ivoire est de 66 dollars américains, l’on pourrait conclure que la nouvelle liste de médicaments remboursables serait abordable lorsque l'impact économique réel de l’utilisation des médicaments par patient est en deçà de ces 66 dollars américains. Au delà de ce seuil, la MUGEFCI devra sélectionner les médicaments remboursables en fonction de leur rang ainsi que le coût par patient associé à l’utilisation des médicaments. Plus précisément, cette sélection commencera à partir des traitements dans le haut de la liste de médicaments prioritaires et prendra fin lorsque les 66 dollars américains seront épuisés. Conclusion Cette étude fait la démonstration de ce qu’il est possible d'utiliser l’analyse de décision multicritère pour développer un formulaire pour les pays à faibles revenus, la Côte d’Ivoire en l’occurrence. L'application de cette méthode est un pas en avant vers la transparence dans l'élaboration des politiques de santé dans les pays en développement.

Relevância:

30.00% 30.00%

Publicador:

Resumo:

La réalisation des objectifs d’Éducation pour tous en Haïti requiert impérativement, entre autres, une campagne massive et accélérée de formation d’enseignants - formation à la fois initiale et en cours d’emploi. Malheureusement, les structures actuelles sont loin d’être en mesure de répondre à cette demande. Il faudra donc recourir à d’autres modalités de formation, particulièrement celles utilisant les TIC (technologies de l’information et de la communication). Cependant, dans ce domaine, il est fort tentant de continuer à copier ce qui se fait en France, au Canada ou aux États-Unis, et d’allonger ainsi la liste d’échecs dus à une adaptation déficiente ou inexistante. Dans un souci de maximiser les chances de succès, il est important d’examiner l’adéquation des stratégies adoptées au contexte et à l’apprenant haïtiens. Cette recherche étudie les caractéristiques des enseignants haïtiens des deux premiers cycles de l’enseignement fondamental (primaire) en tant qu’apprenants, caractéristiques susceptibles de constituer des barrières ou des facteurs facilitants internes à une intégration efficace des TIC dans leur formation. Dans une première phase quantitative, une enquête a été administrée en 2009-2010 à 176 enseignants. L’analyse des données recueillies a permis de faire ressortir trois tendances fortes : une attitude positive par rapport aux innovations et aux TIC, des sources intrinsèques de motivation et une forte distance hiérarchique ; il faut aussi signaler deux autres résultats importants : le peu de familiarité avec l’ordinateur et l’adoption massive du cellulaire ; les réponses étaient plus partagées au niveau de la conception de l’enseignement et de l’apprentissage et de la dimension individualisme-collectivisme. Une analyse factorielle a fait émerger quatre facteurs : la capacité d’utiliser les TIC, le désir de changement, la conception du rôle du formateur et la distance hiérarchique. Suite à cette enquête, une phase qualitative comportant sept entrevues individuelles avec des spécialistes de la formation des enseignants en Haïti et trois groupes de discussion avec des enseignants du fondamental a été effectuée à la fin de 2010. Cette phase avait pour but d’enrichir, de compléter, d’expliquer, de confirmer et d’illustrer les résultats quantitatifs. Malgré leur regard plus sévère, les spécialistes en formation des enseignants ont largement contribué à l’interprétation des résultats, particulièrement ceux concernant l’attitude par rapport aux innovations et aux TIC, la dimension individualisme-collectivisme et la conception de l’enseignement et de l’apprentissage. Quant aux participants aux groupes de discussion, ils ont globalement appuyé les résultats de la phase quantitative, mais en expliquant et en nuançant certains aspects. Ils ont particulièrement renforcé l’importance de deux facteurs qui ne figuraient pas dans la liste initiale et qui ont émergé de l’analyse factorielle : le désir de changement et la conception du rôle du formateur. Ils ont également apporté des éclaircissements fort pertinents sur la distance hiérarchique. .

Relevância:

30.00% 30.00%

Publicador:

Resumo:

Les problèmes de satisfaction de contraintes, qui consistent à attribuer des valeurs à des variables en respectant un ensemble de contraintes, constituent une large classe de problèmes naturels. Pour étudier la complexité de ces problèmes, il est commode de les voir comme des problèmes d'homomorphismes vers des structures relationnelles. Un axe de recherche actuel est la caractérisation des classes de complexité auxquelles appartient le problème d'homomorphisme, ceci dans la perspective de confirmer des conjectures reliant les propriétés algébriques des structures relationelles à la complexité du problème d'homomorphisme. Cette thèse propose dans un premier temps la caractérisation des digraphes pour lesquels le problème d'homomorphisme avec listes appartient à FO. On montre également que dans le cas du problèmes d'homomorphisme avec listes sur les digraphes télescopiques, les conjectures reliant algèbre et complexité sont confirmées. Dans un deuxième temps, on caractérise les graphes pour lesquels le problème d'homomorphisme avec listes est résoluble par cohérence d'arc. On introduit la notion de polymorphisme monochromatique et on propose un algorithme simple qui résoud le problème d'homomorphisme avec listes si le graphe cible admet un polymorphisme monochromatique TSI d'arité k pour tout k ≥ 2.

Relevância:

30.00% 30.00%

Publicador:

Resumo:

Cette recherche porte sur la pertinence et la faisabilité d’un programme de formation continue à distance des enseignants qualifiés de l’enseignement secondaire général public du Bénin. Elle a deux objectifs spécifiques : l’identification et l’analyse des besoins de formation continue des enseignants du secondaire du Bénin et l’étude des modalités administratives, pédagogiques et techniques de mise en place d’un tel programme dans le contexte béninois. Les recherches sont effectuées sur la base de la mise en œuvre de la technique du groupe nominal (TGN) qui a permis de générer un premier questionnaire soumis à un échantillon de 278 enseignants représentatifs des 1 488 enseignants qualifiés de l’enseignement secondaire général public du Bénin et trois autres questionnaires, basés sur la technique Delphi, adressés à 13 experts du système éducatif béninois. Il apparaît qu’un futur programme de formation continue à distance des enseignants du secondaire devrait comporter, principalement, les trois thèmes ci-après, classés par ordre de priorité : «Technologies de l’information et de la communication »; «Méthodes pédagogiques» et « Matière de spécialité ». L’utilisation de la technique Delphi a permis d’établir une liste de 23 items correspondant aux modalités administratives, pédagogiques et techniques pour la mise en œuvre de la formation. L’analyse des résultats de la technique Delphi et celle des réponses au questionnaire adressé aux enseignants ont permis d’opérer un choix de médias à utiliser et/ou à intégrer pour transmettre le savoir et soutenir l’apprentissage. Il ressort des résultats de la recherche que les enseignants béninois du secondaire ont d’importants besoins de formation continue et que la conception et la mise en œuvre d’un programme de formation à distance axée sur l’utilisation des TIC sont pertinentes et faisables au Bénin. Un modèle organisationnel de formation continue à distance a été proposé.

Relevância:

30.00% 30.00%

Publicador:

Resumo:

Les réseaux sociaux accueillent chaque jour des millions d’utilisateurs. Les usagers de ces réseaux, qu’ils soient des particuliers ou des entreprises, sont directement affectés par leur fulgurante expansion. Certains ont même développé une certaine dépendance à l’usage des réseaux sociaux allant même jusqu’à transformer leurs habitudes de vie de tous les jours. Cependant, cet engouement pour les réseaux sociaux n’est pas sans danger. Il va de soi que leur expansion favorise et sert également l’expansion des attaques en ligne. Les réseaux sociaux constituent une opportunité idéale pour les délinquants et les fraudeurs de porter préjudice aux usagers. Ils ont accès à des millions de victimes potentielles. Les menaces qui proviennent des amis et auxquelles font face les utilisateurs de réseaux sociaux sont nombreuses. On peut citer, à titre d’exemple, la cyberintimidation, les fraudes, le harcèlement criminel, la menace, l’incitation au suicide, la diffusion de contenu compromettant, la promotion de la haine, l’atteinte morale et physique, etc. Il y a aussi un « ami très proche » qui peut être très menaçant sur les réseaux sociaux : soi-même. Lorsqu’un utilisateur divulgue trop d’informations sur lui-même, il contribue sans le vouloir à attirer vers lui les arnaqueurs qui sont à la recherche continue d’une proie. On présente dans cette thèse une nouvelle approche pour protéger les utilisateurs de Facebook. On a créé une plateforme basée sur deux systèmes : Protect_U et Protect_UFF. Le premier système permet de protéger les utilisateurs d’eux-mêmes en analysant le contenu de leurs profils et en leur proposant un ensemble de recommandations dans le but de leur faire réduire la publication d’informations privées. Le second système vise à protéger les utilisateurs de leurs « amis » dont les profils présentent des symptômes alarmants (psychopathes, fraudeurs, criminels, etc.) en tenant compte essentiellement de trois paramètres principaux : le narcissisme, le manque d’émotions et le comportement agressif.

Relevância:

30.00% 30.00%

Publicador:

Resumo:

Le présent travail se penche sur le concept de la conscience de l’environnement d’affaires. Ce concept fait référence à l’importance de la prise en compte par l’employé non-cadre d’un ensemble varié d’éléments d’information composant l’environnement d’affaires. La prise en considération de ces éléments d’information par l’employé aiderait ce dernier non seulement à prendre de meilleures décisions d’affaires, mais aussi à résoudre des problèmes dans un milieu de travail prônant la gestion participative. Seulement deux mémoires et un article scientifique se sont penchés sur la conscience de l’environnement d’affaires. Le mémoire d’Ève St-Onge (2007) a justifié l’existence du concept et a établi une première liste d’indicateurs reflétant les éléments d’information de l’environnement d’affaires. Pour sa part le mémoire de Véronique Gauvreau-Jean (2008) s’est plutôt attardé à la validation initiale d’une échelle de mesure de la conscience de l’environnement d’affaires. À ces deux mémoires s’ajoute l’article scientifique de Haines, Rousseau, Brotheridge et St-Onge (2012) lequel a permis de définir un ensemble d’indicateurs et de dimensions de la conscience de l’environnement d’affaires. Le présent mémoire a pour objectif de vérifier le caractère adéquat du contenu de l’échelle de Véronique Gauvreau-Jean (2008), ce type de vérification «consiste essentiellement à examiner le contenu du test pour s’assurer de sa représentativité en tant qu’échantillon du domaine de comportements à évaluer» (Anastasi, 1982, p.132). Considérant la complexité de la conscience de l’environnement d’affaires, cette vérification s’impose pour mettre au point une échelle de mesure qui peut être généralement applicable dans des milieux de travail ayant recours à une gestion participative. Pour vérifier le caractère adéquat du contenu de l’échelle de mesure de Véronique Gauvreau-Jean (2008), il y a eu l’animation de deux panels de discussion avec une entreprise œuvrant dans le placement de personnel ainsi qu’une autre dans la distribution de produits de papier. Avec les propos des participants des panels, une analyse des données a été effectué pour produire une échelle de mesure reformulée. Cette dernière a ensuite eu un avis favorable par deux professeurs, de différentes facultés d’administration québécoises, concernant la facilité de compréhension et sa capacité de refléter les éléments de l’environnement d’affaires. Il y a finalement eu la comparaison du contenu de l’échelle reformulée et du contenu de l’échelle de Gauvreau-Jean (2008) pour déterminer le caractère adéquat de l’échelle existante.

Relevância:

30.00% 30.00%

Publicador:

Resumo:

La tomographie d’émission par positrons (TEP) est une modalité d’imagerie moléculaire utilisant des radiotraceurs marqués par des isotopes émetteurs de positrons permettant de quantifier et de sonder des processus biologiques et physiologiques. Cette modalité est surtout utilisée actuellement en oncologie, mais elle est aussi utilisée de plus en plus en cardiologie, en neurologie et en pharmacologie. En fait, c’est une modalité qui est intrinsèquement capable d’offrir avec une meilleure sensibilité des informations fonctionnelles sur le métabolisme cellulaire. Les limites de cette modalité sont surtout la faible résolution spatiale et le manque d’exactitude de la quantification. Par ailleurs, afin de dépasser ces limites qui constituent un obstacle pour élargir le champ des applications cliniques de la TEP, les nouveaux systèmes d’acquisition sont équipés d’un grand nombre de petits détecteurs ayant des meilleures performances de détection. La reconstruction de l’image se fait en utilisant les algorithmes stochastiques itératifs mieux adaptés aux acquisitions à faibles statistiques. De ce fait, le temps de reconstruction est devenu trop long pour une utilisation en milieu clinique. Ainsi, pour réduire ce temps, on les données d’acquisition sont compressées et des versions accélérées d’algorithmes stochastiques itératifs qui sont généralement moins exactes sont utilisées. Les performances améliorées par l’augmentation de nombre des détecteurs sont donc limitées par les contraintes de temps de calcul. Afin de sortir de cette boucle et permettre l’utilisation des algorithmes de reconstruction robustes, de nombreux travaux ont été effectués pour accélérer ces algorithmes sur les dispositifs GPU (Graphics Processing Units) de calcul haute performance. Dans ce travail, nous avons rejoint cet effort de la communauté scientifique pour développer et introduire en clinique l’utilisation des algorithmes de reconstruction puissants qui améliorent la résolution spatiale et l’exactitude de la quantification en TEP. Nous avons d’abord travaillé sur le développement des stratégies pour accélérer sur les dispositifs GPU la reconstruction des images TEP à partir des données d’acquisition en mode liste. En fait, le mode liste offre de nombreux avantages par rapport à la reconstruction à partir des sinogrammes, entre autres : il permet d’implanter facilement et avec précision la correction du mouvement et le temps de vol (TOF : Time-Of Flight) pour améliorer l’exactitude de la quantification. Il permet aussi d’utiliser les fonctions de bases spatio-temporelles pour effectuer la reconstruction 4D afin d’estimer les paramètres cinétiques des métabolismes avec exactitude. Cependant, d’une part, l’utilisation de ce mode est très limitée en clinique, et d’autre part, il est surtout utilisé pour estimer la valeur normalisée de captation SUV qui est une grandeur semi-quantitative limitant le caractère fonctionnel de la TEP. Nos contributions sont les suivantes : - Le développement d’une nouvelle stratégie visant à accélérer sur les dispositifs GPU l’algorithme 3D LM-OSEM (List Mode Ordered-Subset Expectation-Maximization), y compris le calcul de la matrice de sensibilité intégrant les facteurs d’atténuation du patient et les coefficients de normalisation des détecteurs. Le temps de calcul obtenu est non seulement compatible avec une utilisation clinique des algorithmes 3D LM-OSEM, mais il permet également d’envisager des reconstructions rapides pour les applications TEP avancées telles que les études dynamiques en temps réel et des reconstructions d’images paramétriques à partir des données d’acquisitions directement. - Le développement et l’implantation sur GPU de l’approche Multigrilles/Multitrames pour accélérer l’algorithme LMEM (List-Mode Expectation-Maximization). L’objectif est de développer une nouvelle stratégie pour accélérer l’algorithme de référence LMEM qui est un algorithme convergent et puissant, mais qui a l’inconvénient de converger très lentement. Les résultats obtenus permettent d’entrevoir des reconstructions en temps quasi-réel que ce soit pour les examens utilisant un grand nombre de données d’acquisition aussi bien que pour les acquisitions dynamiques synchronisées. Par ailleurs, en clinique, la quantification est souvent faite à partir de données d’acquisition en sinogrammes généralement compressés. Mais des travaux antérieurs ont montré que cette approche pour accélérer la reconstruction diminue l’exactitude de la quantification et dégrade la résolution spatiale. Pour cette raison, nous avons parallélisé et implémenté sur GPU l’algorithme AW-LOR-OSEM (Attenuation-Weighted Line-of-Response-OSEM) ; une version de l’algorithme 3D OSEM qui effectue la reconstruction à partir de sinogrammes sans compression de données en intégrant les corrections de l’atténuation et de la normalisation dans les matrices de sensibilité. Nous avons comparé deux approches d’implantation : dans la première, la matrice système (MS) est calculée en temps réel au cours de la reconstruction, tandis que la seconde implantation utilise une MS pré- calculée avec une meilleure exactitude. Les résultats montrent que la première implantation offre une efficacité de calcul environ deux fois meilleure que celle obtenue dans la deuxième implantation. Les temps de reconstruction rapportés sont compatibles avec une utilisation clinique de ces deux stratégies.

Relevância:

30.00% 30.00%

Publicador:

Resumo:

La présente thèse est une étude ethnographique qui examine le savoir en tant que pratique située au Ladakh, dans l’Himalaya indien. Elle analyse les implications socioculturelles des deux moteurs de changement en jeu au Ladakh: l’un est d'origine socio-économique et lié à la production du Ladakh en tant que zone frontalière, tandis que l’autre est de nature environnementale et entrainé par les changements climatiques. Alors que le Ladakh est demeuré hors de la portée de l’État bureaucratique pendant l’administration coloniale britannique, la région s’est trouvée reconfigurée en zone frontalière stratégique après l’indépendance de l’Inde des suites des guerres successives avec le Pakistan et la Chine. L’Indépendance a mené à la partition de l’Inde et du Pakistan en 1947; cette thèse examine la portée à long terme des évènements traumatisants de la partition tels qu’ils se sont déroulés au Ladakh et comment les Ladakhis établissent des liens entre ces évènements et les changements climatiques. L’État indien s’est produit dans la région à travers une volonté de dominer les montagnes, principalement par le développement d’infrastructures et par l’intégration du savoir local des Ladakhis dans l’appareil militaire. La militarisation a restructuré l'économie du Ladakh, redéfini la structure des ménages, contribué à l’exode rural, déplacé la centralité des activités agropastorales et, tel que la dissertation le soutient, altéré de manière significative la connexion de la population locale avec l'environnement. La rationalisation croissante de la perspective sur l’environnement aujourd'hui contribue à la fragmentation des liens qui unissent les domaines naturels et humains dans la cosmologie locale de même qu’à l'abandon des pratiques rituelles connexes. Parallèlement, la région est touchée par des effets distincts des changements climatiques, en particulier la récession des glaciers. La thèse juxtapose l'expérience subjective de ces vastes changements dans la vie quotidienne des villageois de la Vallée de Sham avec les faits historiques environnementaux, démontrant ainsi que les événements historiques locaux influent sur les perceptions des changements environnementaux. L'analyse démontre qu’un phénomène objectif tel que la récession des glaciers est interprété à travers des réalités locales. Plus précisément, selon la conception du monde locale, un glacier en retrait est une figure rhétorique d’une transformation de la condition humaine. Comme le fait valoir la dissertation, l’interprétation culturelle ne constitue pas un obstacle à l'objectivité de l'histoire naturelle de la cosmologie locale. L’interprétation culturelle et l'expérience empirique s’avèrent par ailleurs essentielles à la vitalité des connaissances locales sur l'environnement et à la performance des pratiques associées.

Relevância:

30.00% 30.00%

Publicador:

Resumo:

Les compositions musicales de l’étudiante qui accompagne cette thèse sous la forme d’un disque audio est disponible au comptoir de la Bibliothèque de musique sous le titre : Cristina García Islas (http://atrium.umontreal.ca/notice/UM-ALEPH002385786)

Relevância:

30.00% 30.00%

Publicador:

Resumo:

Alors que les activités anthropiques font basculer de nombreux écosystèmes vers des régimes fonctionnels différents, la résilience des systèmes socio-écologiques devient un problème pressant. Des acteurs locaux, impliqués dans une grande diversité de groupes — allant d’initiatives locales et indépendantes à de grandes institutions formelles — peuvent agir sur ces questions en collaborant au développement, à la promotion ou à l’implantation de pratiques plus en accord avec ce que l’environnement peut fournir. De ces collaborations répétées émergent des réseaux complexes, et il a été montré que la topologie de ces réseaux peut améliorer la résilience des systèmes socio-écologiques (SSÉ) auxquels ils participent. La topologie des réseaux d’acteurs favorisant la résilience de leur SSÉ est caractérisée par une combinaison de plusieurs facteurs : la structure doit être modulaire afin d’aider les différents groupes à développer et proposer des solutions à la fois plus innovantes (en réduisant l’homogénéisation du réseau), et plus proches de leurs intérêts propres ; elle doit être bien connectée et facilement synchronisable afin de faciliter les consensus, d’augmenter le capital social, ainsi que la capacité d’apprentissage ; enfin, elle doit être robuste, afin d’éviter que les deux premières caractéristiques ne souffrent du retrait volontaire ou de la mise à l’écart de certains acteurs. Ces caractéristiques, qui sont relativement intuitives à la fois conceptuellement et dans leur application mathématique, sont souvent employées séparément pour analyser les qualités structurales de réseaux d’acteurs empiriques. Cependant, certaines sont, par nature, incompatibles entre elles. Par exemple, le degré de modularité d’un réseau ne peut pas augmenter au même rythme que sa connectivité, et cette dernière ne peut pas être améliorée tout en améliorant sa robustesse. Cet obstacle rend difficile la création d’une mesure globale, car le niveau auquel le réseau des acteurs contribue à améliorer la résilience du SSÉ ne peut pas être la simple addition des caractéristiques citées, mais plutôt le résultat d’un compromis subtil entre celles-ci. Le travail présenté ici a pour objectifs (1), d’explorer les compromis entre ces caractéristiques ; (2) de proposer une mesure du degré auquel un réseau empirique d’acteurs contribue à la résilience de son SSÉ ; et (3) d’analyser un réseau empirique à la lumière, entre autres, de ces qualités structurales. Cette thèse s’articule autour d’une introduction et de quatre chapitres numérotés de 2 à 5. Le chapitre 2 est une revue de la littérature sur la résilience des SSÉ. Il identifie une série de caractéristiques structurales (ainsi que les mesures de réseaux qui leur correspondent) liées à l’amélioration de la résilience dans les SSÉ. Le chapitre 3 est une étude de cas sur la péninsule d’Eyre, une région rurale d’Australie-Méridionale où l’occupation du sol, ainsi que les changements climatiques, contribuent à l’érosion de la biodiversité. Pour cette étude de cas, des travaux de terrain ont été effectués en 2010 et 2011 durant lesquels une série d’entrevues a permis de créer une liste des acteurs de la cogestion de la biodiversité sur la péninsule. Les données collectées ont été utilisées pour le développement d’un questionnaire en ligne permettant de documenter les interactions entre ces acteurs. Ces deux étapes ont permis la reconstitution d’un réseau pondéré et dirigé de 129 acteurs individuels et 1180 relations. Le chapitre 4 décrit une méthodologie pour mesurer le degré auquel un réseau d’acteurs participe à la résilience du SSÉ dans lequel il est inclus. La méthode s’articule en deux étapes : premièrement, un algorithme d’optimisation (recuit simulé) est utilisé pour fabriquer un archétype semi-aléatoire correspondant à un compromis entre des niveaux élevés de modularité, de connectivité et de robustesse. Deuxièmement, un réseau empirique (comme celui de la péninsule d’Eyre) est comparé au réseau archétypique par le biais d’une mesure de distance structurelle. Plus la distance est courte, et plus le réseau empirique est proche de sa configuration optimale. La cinquième et dernier chapitre est une amélioration de l’algorithme de recuit simulé utilisé dans le chapitre 4. Comme il est d’usage pour ce genre d’algorithmes, le recuit simulé utilisé projetait les dimensions du problème multiobjectif dans une seule dimension (sous la forme d’une moyenne pondérée). Si cette technique donne de très bons résultats ponctuellement, elle n’autorise la production que d’une seule solution parmi la multitude de compromis possibles entre les différents objectifs. Afin de mieux explorer ces compromis, nous proposons un algorithme de recuit simulé multiobjectifs qui, plutôt que d’optimiser une seule solution, optimise une surface multidimensionnelle de solutions. Cette étude, qui se concentre sur la partie sociale des systèmes socio-écologiques, améliore notre compréhension des structures actorielles qui contribuent à la résilience des SSÉ. Elle montre que si certaines caractéristiques profitables à la résilience sont incompatibles (modularité et connectivité, ou — dans une moindre mesure — connectivité et robustesse), d’autres sont plus facilement conciliables (connectivité et synchronisabilité, ou — dans une moindre mesure — modularité et robustesse). Elle fournit également une méthode intuitive pour mesurer quantitativement des réseaux d’acteurs empiriques, et ouvre ainsi la voie vers, par exemple, des comparaisons d’études de cas, ou des suivis — dans le temps — de réseaux d’acteurs. De plus, cette thèse inclut une étude de cas qui fait la lumière sur l’importance de certains groupes institutionnels pour la coordination des collaborations et des échanges de connaissances entre des acteurs aux intérêts potentiellement divergents.