772 resultados para Offre
Resumo:
Il existe des associations entre les bars de danse érotique et les activités illicites, dans les écrits journalistiques et scientifiques. Nous avons vérifié ces associations en menant une description des crimes et déviances associés aux bars de danse érotique. Puis, nous avons tenté d’expliquer l’organisation et la structure de ces crimes, en nous appuyant sur l’approche du crime organisant et la théorie de l’écosystème du crime, de Felson (2006). Des entretiens semi-dirigés ont été conduits avec dix femmes danseuses, une femme shooter girl, un propriétaire, un portier et deux clients. Une analyse thématique à deux niveaux a montré que les délits se rapportent aux stupéfiants, à la prostitution, au proxénétisme, aux déviances, et à divers actes de violence. Des distinctions importantes, quant au contrôle selon les établissements sont notées. La structure et l’organisation des crimes peuvent s’expliquer par une logique propre aux relations symbiotiques et interdépendantes, tel que le suggère la théorie de l’écosystème du crime de Felson. Ainsi, la structure des délits peut prendre une forme mutualiste ou parasitaire. L’interrelation propre au neutralisme explique l’organisation générale de ces délits. Le milieu criminogène de la danse érotique offre de multiples opportunités, qui seront saisies par les acteurs motivés, en vue de réaliser un bénéfice personnel. Deux constats étonnants : les données suggèrent que l’implication des organisations criminelles est relativement limitée; et les conséquences occasionnées par les activités du milieu présentent un caractère inquiétant, particulièrement pour les femmes. Des efforts en matière de prévention situationnelle seraient appropriés pour réduire les opportunités.
Resumo:
La compréhension de la structure d’un logiciel est une première étape importante dans la résolution de tâches d’analyse et de maintenance sur celui-ci. En plus des liens définis par la hiérarchie, il existe un autre type de liens entre les éléments du logiciel que nous appelons liens d’adjacence. Une compréhension complète d’un logiciel doit donc tenir compte de tous ces types de liens. Les outils de visualisation sont en général efficaces pour aider un développeur dans sa compréhension d’un logiciel en lui présentant l’information sous forme claire et concise. Cependant, la visualisation simultanée des liens hiérarchiques et d’adjacence peut donner lieu à beaucoup d’encombrement visuel, rendant ainsi ces visualisations peu efficaces pour fournir de l’information utile sur ces liens. Nous proposons dans ce mémoire un outil de visualisation 3D qui permet de représenter à la fois la structure hiérarchique d’un logiciel et les liens d’adjacence existant entre ses éléments. Notre outil utilise trois types de placements différents pour représenter la hiérarchie. Chacun peut supporter l’affichage des liens d’adjacence de manière efficace. Pour représenter les liens d’adjacence, nous proposons une version 3D de la méthode des Hierarchical Edge Bundles. Nous utilisons également un algorithme métaheuristique pour améliorer le placement afin de réduire davantage l’encombrement visuel dans les liens d’adjacence. D’autre part, notre outil offre un ensemble de possibilités d’interaction permettant à un usager de naviguer à travers l’information offerte par notre visualisation. Nos contributions ont été évaluées avec succès sur des systèmes logiciels de grande taille.
Resumo:
La thérapie génique, qui consiste à modifier le génome d'un individu, est la progression logique de l'application de la recherche fondamentale à la médecine. Au moment où l'on célèbre le décryptage du génome humain, surgissent les premières guérisons par la thérapie génique qui soulèvent l'espoir d'un traitement par la génétique pour des maladies jusqu'ici incurables. Paradoxalement, est survenu au même moment le décès d'un adolescent au cours d'un essai clinique de thérapie génique aux Etats-Unis démontrant les risques sérieux de la thérapie génique et notre manque de connaissances scientifiques. À la lumière de ces derniers épisodes, il est important de réévaluer l'encadrement normatif des essais cliniques de la thérapie génique au Canada. Nous devons nous demander si la thérapie génique, hautement expérimentale, diffère d'un point de vue juridique, des autres types de recherche biomédicale. Une analyse comparative de différents modèles normatifs encadrant la thérapie génique permet de faire ressortir les avantages et les inconvénients de chacun. Le modèle québécois a intégré simplement la thérapie génique aux régimes normatifs préexistants (celui de l'expérimentation et celui des drogues). Le modèle français se distingue par l'insertion d'un régime d'exception dans le Code de la santé publique et le Code civil pour encadrer de façon spécifique la thérapie génique. Le Royaume-Uni offre un modèle intéressant d'auto-régulation alors que les États-Unis ont des normes spécifiques malheureusement restreintes aux recherches financées par les fonds publics. Il subsiste plusieurs lacunes dans l'encadrement canadien et québécois. Afin de l'améliorer, le Canada et le Québec devraient notamment se pencher sur la création d'une autorité nationale spécialisée et de normes spécifiques à la thérapie génique, l'implantation d'une évaluation structurée des risques de dissémination d'OGMs et l'établissement d'un suivi à long terme des participants.
Resumo:
Le cartilage est un tissu conjonctif composé d’une seule sorte de cellule nommée chondrocytes. Ce tissu offre une fondation pour la formation des os. Les os longs se développent par l'ossification endochondral. Ce processus implique la coordination entre la prolifération, la différenciation et l'apoptose des chondrocytes, et résulte au remplacement du cartilage par l'os. Des anomalies au niveau du squelette et des défauts liés à l’âge tels que l’arthrose (OA) apparaissent lorsqu’il y a une perturbation dans l’équilibre du processus de développement. À ce jour, les mécanismes exacts contrôlant la fonction et le comportement des chondrocytes pendant la croissance et le développement du cartilage sont inconnus. Le récepteur activateur de la prolifération des peroxysomes (PPAR) gamma est un facteur de transcription impliqué dans l'homéostasie des lipides. Plus récemment, son implication a aussi été suggérée dans l'homéostasie osseuse. Cependant, le rôle de PPARγ in vivo dans la croissance et le développement du cartilage est inconnu. Donc, pour la première fois, cette étude examine le rôle spécifique de PPARγ in vivo dans la croissance et le développement du cartilage. Les souris utilisées pour l’étude avaient une délétion conditionnelle au cartilage du gène PPARγ. Ces dernières ont été générées en employant le système LoxP/Cre. Les analyses des souris ayant une délétion au PPARγ aux stades embryonnaire et adulte démontrent une réduction de la croissance des os longs, une diminution des dépôts de calcium dans l’os, de la densité osseuse et de la vascularisation, un délai dans l’ossification primaire et secondaire, une diminution cellulaire, une perte d’organisation colonnaire et une diminution des zones hypertrophiques, une désorganisation des plaques de croissance et des chondrocytes déformés. De plus, la prolifération et la différenciation des chondrocytes sont anormales. Les chondrocytes et les explants isolés du cartilage mutant démontrent une expression réduite du facteur de croissance endothélial vasculaire (VEGF)-A et des éléments de production de la matrice extracellulaire. Une augmentation de l’expression de la métalloprotéinase matricielle (MMP)-13 est aussi observée. Dans les souris âgées ayant une délétion au PPARγ, y est aussi noté des phénotypes qui ressemblent à ceux de l’OA tel que la dégradation du cartilage et l'inflammation de la membrane synoviale, ainsi qu’une augmentation de l’expression de MMP-13 et des néoépitopes générés par les MMPs. Nos résultats démontrent que le PPARγ est nécessaire pour le développement et l’homéostasie du squelette. PPARγ est un régulateur essentiel pour la physiologie du cartilage durant les stades de croissance, de développement et de vieillissement.
Resumo:
La version intégrale de cette thèse est disponible uniquement pour consultation individuelle à la Bibliothèque de musique de l’Université de Montréal (http://www.bib.umontreal.ca/MU).
Resumo:
La formation à distance (FAD) est de plus en plus utilisée dans le cadre de la formation des enseignants aux technologies de l’information et de la communication (TIC). Dans les pays en voie de développement, elle permet non seulement de réduire les coûts par rapport à une formation traditionnelle, mais aussi de modéliser des pratiques pédagogiques exemplaires qui permettent de maximiser le recours aux TIC. En ce sens, la formation continue des enseignants aux TIC par des cours à distance qui intègrent des forums de discussion offre plusieurs avantages pour ces pays. L’évaluation des apprentissages réalisés dans les forums reste cependant un problème complexe. Différents modèles et différentes procédures d’évaluation ont été proposés par la littérature, mais aucun n’a encore abordé spécifiquement la culture e-learning des participants telle qu’elle est définie par le modèle IntersTICES (Viens, 2007 ; Viens et Peraya, 2005). L’objectif de notre recherche est l’élaboration d’une grille opérationnelle pour l’analyse de la culture e-learning à partir des contenus de différents forums de discussion utilisés comme activité de formation dans un cours à distance. Pour développer cette grille, nous utiliserons une combinaison de modèles recensés dans la revue de littérature afin de circonscrire les principaux concepts et indicateurs à prendre en compte pour ensuite suivre les procédures relatives à l’analyse de la valeur, une méthodologie qui appelle la production d’un cahier des charges fonctionnel, la production de l’outil, puis sa mise à l’essai auprès d’experts. Cette procédure nous a permis de mettre sur pied une grille optimale, opérationnelle et appuyée par une base théorique et méthodologique solide.
Resumo:
Cette thèse s’intéresse à l’amélioration des soins et des services de santé et touche aux relations entre 3 grands thèmes de l’analyse des organisations de santé : la gouvernance, le changement et les pratiques professionnelles. En nous appuyant sur l’analyse organisationnelle contemporaine, nous visons à mieux comprendre l’interface entre l’organisation et les pratiques cliniques. D’une part, nous souhaitons mieux comprendre comment l’organisation structure et potentialise les pratiques des acteurs. D’autre part, dans une perspective d’acteurs stratégiques, nous souhaitons mieux comprendre le rôle des pratiques des professionnels dans l’actualisation de leur profession et dans la transformation et l’évolution des organisations. Notre étude se fonde sur l’hypothèse qu’une synergie accrue entre l’organisation et les pratiques des professionnels favorisent l’amélioration de la qualité des soins et des services de santé. En 2004, le gouvernement ontarien entreprend une importante réforme des soins et services dans le domaine du cancer et revoit les rôles et mandats du Cancer Care Ontario, l’organisation responsable du développement des orientations stratégiques et du financement des services en cancer dans la province. Cette réforme appelle de nombreux changements organisationnels et cliniques et vise à améliorer la qualité des soins et des services dans le domaine de l’oncologie. C’est dans le cadre de cette réforme que nous avons analysé l’implantation d’un système de soins et de services pour améliorer la performance et la qualité et analysé le rôle des pratiques professionnelles, spécifiquement les pratiques infirmières, dans la transformation de ce système. La stratégie de recherche utilisée correspond à l’étude approfondie d’un cas correspondant à l’agence de soins et de services en oncologie en Ontario, le Cancer Care Ontario, et des pratiques professionnelles infirmières évoluant dans ce modèle. Le choix délibéré de ce cas repose sur les modalités organisationnelles spécifiques à l’Ontario en termes de soins en oncologie. La collecte de données repose sur 3 sources principales : les entrevues semi-structurées (n=25), l’analyse d’une abondante documentation et les observations non participatives. La thèse s’articule autour de trois articles. Le premier article vise à définir le concept de gouvernance clinique. Nous présentons l’origine du concept et définissons ses principales composantes. Concept aux frontières floues, la gouvernance clinique est axée sur le développement d’initiatives cliniques et organisationnelles visant à améliorer la qualité des soins de santé et la sécurité des patients. L’analyse de la littérature scientifique démontre la prédominance d’une vision statique de la gouvernance clinique et d’un contrôle accentué des pratiques professionnelles dans l’atteinte de l’efficience et de l’excellence dans les soins et les services. Notre article offre une conception plus dynamique de la gouvernance clinique qui tient compte de la synergie entre le contexte organisationnel et les pratiques des professionnels et soulève les enjeux reliés à son implantation. Le second article s’intéresse à l’ensemble des leviers mobilisés pour institutionnaliser les principes d’amélioration continue de la qualité dans les systèmes de santé. Nous avons analysé le rôle et la portée des leviers dans l’évolution du système de soins en oncologie en Ontario et dans la transformation des pratiques cliniques. Nos données empiriques révèlent 3 phases et de nombreuses étapes dans la transformation du système. Les acteurs en position d’autorité ont mobilisé un ensemble de leviers pour introduire des changements. Notre étude révèle que la transformation du Cancer Care Ontario est le reflet d’un changement radical de type évolutif où chacune des phases est une période charnière dans la transformation du système et l’implantation d’initiatives de qualité. Le troisième article pose un regard sur un levier spécifique de transformation, celui de la communauté de pratique, afin de mieux comprendre le rôle joué par les pratiques professionnelles dans la transformation de l’organisation des soins et ultimement dans le positionnement stratégique de la profession infirmière. Nous avons analysé les pratiques infirmières au sein de la communauté de pratique (CDP) des infirmières en pratique avancée en oncologie. En nous appuyant sur la théorie de la stratégie en tant que pratique sociale, nos résultats indiquent que l’investissement de la profession dans des domaines stratégiques augmente les capacités des infirmières à transformer leurs pratiques et à transformer l’organisation. Nos résultats soulignent le rôle déterminant du contexte dans le développement de capacités stratégiques chez les professionnels. Enfin, nos résultats révèlent 3 stratégies émergentes des pratiques des infirmières : une stratégie de développement de la pratique infirmière en oncologie, une stratégie d’institutionnalisation des politiques de la CDP dans le système en oncologie et une stratégie de positionnement de la profession infirmière. Les résultats de notre étude démontrent que l’amélioration de la qualité des soins et des services de santé est située. L’implantation de transformations dans l’ensemble d’un système, tel que celui du cancer en Ontario, est tributaire d’une part, des capacités d’action des acteurs en position d’autorité qui mobilisent un ensemble de leviers pour introduire des changements et d’autre part, de la capacité des acteurs à la base de l’organisation à s’approprier les leviers pour développer un projet professionnel, améliorer leurs pratiques professionnelles et transformer le système de soins.
Resumo:
En 2010, les écrans du Québec étaient occupés par des films américains dans une proportion de 78,4 %. Ce mémoire veut mettre en lumière les mécanismes de la distribution de films au Québec et la responsabilité des distributeurs dans l'offre cinématographique nationale. Après avoir décrit les cinq étapes de la fabrication d'un film, nous dressons l'inventaire des politiques fédérales et provinciales qui régissent la distribution au Québec. Nous établissons ensuite des parallèles entre les politiques nationales et celles de pays de l'Union européenne afin de considérer comment et pourquoi, pour protéger leur identité « de la déferlante américaine », ces pays tentent de réglementer l'industrie cinématographique. Par la suite, nous observons quel est le rôle de la distribution dans la filière économique en général et dans l'industrie québécoise du cinéma en particulier à travers une série d'entrevues semi-dirigées avec les principaux protagonistes du milieu. Nous nous intéressons subséquemment à l'avenir de la distribution cinématographique relativement à la dématérialisation des images et du son. Finalement, nous concluons que le menu cinématographique québécois est composé par le positionnement des distributeurs américains et québécois en réponse à une demande artificielle des consommateurs reflétée par la billetterie (box-office); positionnement légitimé par les politiques gouvernementales.
Resumo:
Avec la complexité croissante des systèmes sur puce, de nouveaux défis ne cessent d’émerger dans la conception de ces systèmes en matière de vérification formelle et de synthèse de haut niveau. Plusieurs travaux autour de SystemC, considéré comme la norme pour la conception au niveau système, sont en cours afin de relever ces nouveaux défis. Cependant, à cause du modèle de concurrence complexe de SystemC, relever ces défis reste toujours une tâche difficile. Ainsi, nous pensons qu’il est primordial de partir sur de meilleures bases en utilisant un modèle de concurrence plus efficace. Par conséquent, dans cette thèse, nous étudions une méthodologie de conception qui offre une meilleure abstraction pour modéliser des composants parallèles en se basant sur le concept de transaction. Nous montrons comment, grâce au raisonnement simple que procure le concept de transaction, il devient plus facile d’appliquer la vérification formelle, le raffinement incrémental et la synthèse de haut niveau. Dans le but d’évaluer l’efficacité de cette méthodologie, nous avons fixé l’objectif d’optimiser la vitesse de simulation d’un modèle transactionnel en profitant d’une machine multicoeur. Nous présentons ainsi l’environnement de modélisation et de simulation parallèle que nous avons développé. Nous étudions différentes stratégies d’ordonnancement en matière de parallélisme et de surcoût de synchronisation. Une expérimentation faite sur un modèle du transmetteur Wi-Fi 802.11a a permis d’atteindre une accélération d’environ 1.8 en utilisant deux threads. Avec 8 threads, bien que la charge de travail des différentes transactions n’était pas importante, nous avons pu atteindre une accélération d’environ 4.6, ce qui est un résultat très prometteur.
Resumo:
Ce mémoire consiste en une analyse des stratégies de l’offre et de la demande de l’industrie québécoise de la production télévisuelle francophone pour la jeunesse et plus précisément, pour l’auditoire des 12-17 ans. Cette industrie tendrait à investir davantage dans l’importation que dans la production d’émissions pour cet auditoire, dû à la faible écoute de ses productions par leur auditoire cible. Afin de mieux saisir les enjeux politiques, économiques et sociaux qui entourent l’industrie de la production télévisuelle pour la jeunesse, nous proposons d’explorer et de comparer l’offre télévisuelle destinée aux 12-17 ans et leur consommation télévisuelle. Cette analyse quantitative et statistique de l’offre et de la consommation se fait en trois étapes : (i) l’analyse de la structure de réception (émissions à succès, écoute des filles et des garçons, temps passé à l’écoute), (ii) l’analyse de la structure de programmation (mode de diffusion, genres télévisuels, origine des émissions, thématiques des émissions), et (iii) l’analyse de la structure thématique (thématiques associées aux épisodes et des personnages). De ces analyses, divers constats apparaissent. Tout d’abord, les jeunes consomment ce que les télédiffuseurs diffusent à leur intention, malgré l’accès limité à cette offre. De plus, plusieurs tactiques semblent être mises en œuvre afin de rentabiliser la diffusion de ces émissions, principalement la rediffusion. Finalement, ces émissions destinées aux adolescents se distinguent de celles offertes au grand public, non seulement par le public qu’elles tentent de rejoindre, mais aussi par les thématiques qu’elles abordent et la manière dont elles les abordent.
Resumo:
Le diabète de type 1 (DT1) est une maladie complexe qui requiert une implication importante des patients pour contrôler leur glycémie et ainsi prévenir les complications et comorbidités. L’activité physique (AP) régulière et une attention constante pour les glucides ingérés sont des adjuvants essentiels au traitement insulinique. Nous avons démontré que le questionnaire BAPAD-1, spécifiquement développé pour des adultes atteints de DT1, est un outil valide (validité prédictive, fiabilité interne et reproductibilité) pour définir des barrières associées à l’AP. Bien que le niveau de barrières envers l’AP soit faible, la crainte de l’hypoglycémie est la barrière la plus importante chez cette population. L’adoption d’un mode de vie actif est associée à un profil corporel favorable. Les adultes, avec un DT1 et non diabétique, qui maintiennent un bon niveau d’AP, soit un ratio entre la dépense énergétique totale et celle au repos ≥ 1.7, ont une masse grasse, un indice de masse corporelle et un tour de taille significativement inférieurs à ceux d’adultes moins actifs. Le niveau d’AP peut être estimé au moyen d’un moniteur d’AP comme le SenseWear Armband™. Afin de compléter les études de validation de cet outil, nous avons évalué et démontré la reproductibilité des mesures. Toutefois, la dépense énergétique est sous-estimée durant les 10 premières minutes d’une AP d’intensité modérée sur ergocycle. L’utilisation de cet appareil est donc justifiée pour une évaluation de la dépense énergétique sur de longues périodes. Le calcul des glucides est une méthode largement utilisée pour évaluer la quantité d’insuline à injecter lors des repas. Nous avons évalué dans un contexte de vie courante, sans révision de la technique, la précision des patients pour ce calcul. L’erreur moyenne est de 15,4 ± 7,8 g par repas, soit 20,9 ± 9,7 % du contenu glucidique. L’erreur moyenne est positivement associée à de plus grandes fluctuations glycémiques mesurées via un lecteur de glucose en continu. Une révision régulière du calcul des glucides est probablement nécessaire pour permettre un meilleur contrôle glycémique. Nous avons développé et testé lors d’un essai clinique randomisé contrôlé un programme de promotion de l’AP (PEP-1). Ce programme de 12 semaines inclut une séance hebdomadaire en groupe ayant pour but d’initier l’AP, d’établir des objectifs et d’outiller les adultes atteints de DT1 quant à la gestion de la glycémie à l’AP. Bien que n’ayant pas permis d’augmenter la dépense énergétique, le programme a permis un maintien du niveau d’AP et une amélioration de la condition cardio-respiratoire et de la pression artérielle. À la fin du programme, une plus grande proportion de patients connaissait la pharmacocinétique de l’insuline et une plus grande variété de méthodes pour contrer l’hypoglycémie associée à l’AP était utilisée. En conclusion, le diabète de type 1 engendre des défis quotidiens particuliers. D’une part, le calcul des glucides est une tâche complexe et son imprécision est associée aux fluctuations glycémiques quotidiennes. D’autre part, l’adoption d’un mode de vie actif, qui est associée à un meilleur profil de composition corporelle, est limitée par la crainte des hypoglycémies. Le programme PEP-1 offre un support pour intégrer l’AP dans les habitudes de vie des adultes avec un DT1 et ainsi améliorer certains facteurs de risque cardio-vasculaire.
Resumo:
Le but de notre recherche est d’étudier l’influence de la réalisation des promesses relatives aux conditions d’emploi et de la réalisation des attentes relatives aux conditions d’exercice de la profession sur l’engagement organisationnel et l’engagement de carrière des PRH. Notre étude est empirique et basée sur une enquête réalisée auprès de 636 PRH exerçant au Québec. Notre étude repose sur la théorie du contrat psychologique qui soutient que l’entente mutuelle et réciproque entre l’employeur et l’employé a des répercussions sur les comportements des travailleurs dont l’engagement organisationnel. Nous trouvons un lien intéressant à établir entre la réalisation des promesses liées aux conditions d’emploi et la réalisation des attentes relatives aux conditions d’exercice de la profession. Nos résultats ont révélé que la réalisation par l’employeur des promesses liées aux conditions d’emploi va affecter l’engagement organisationnel et l’engagement de carrière. Plus particulièrement la réalisation des promesses en lien avec le contenu de l’emploi et l’atmosphère sociale influence l’engagement organisationnel affectif tandis que la réalisation des promesses liées au développement externe influence l’engagement de carrière relatif aux alternatives limitées. Nos résultats montrent aussi que les attentes relatives aux conditions d’exercice de la profession influencent l’engagement organisationnel et l’engagement de carrière. Notamment la réalisation des attentes relatives au rôle de partenaire d’affaire influence l’engagement organisationnel affectif. Bref, la théorie du contrat psychologique offre un cadre explicatif intéressant pour comprendre la dualité de l’attachement des professionnels envers leur profession et envers l’organisation qui les emploie.
Resumo:
Comme à l’approche d’un tsunami, l’incidence grandissante des allergies affecte maintenant plus de 30% de la population des pays développés. Étant la cause de nombreuses morbidités et un risque significatif de mortalité, les allergies nécessitent des dépenses exorbitantes au système de santé et constituent une des plus importantes sources d’invalidité. Cette thèse a pour but de contribuer à faciliter la prise de décision éclairée dans le développement de politiques en santé en lien avec cette maladie immunitaire chronique en utilisant des principes d’éthique comme outils pour guider le développement de politiques en santé. Le premier chapitre démontre le présent déficit d’analyses des enjeux éthiques en allergologie et démontre de quelle façon les réflexions en éthique peuvent guider le développement de politiques et l’élaboration de stratégies appliquées aux allergies. Les chapitres qui suivront présentent des applications spécifiques des principes d’éthiques ciblant des contextes précis comme des méthodes qui fournissent des outils de réflexion et des cadres théoriques qui peuvent être appliqués par les décideurs pour guider des interventions en santé concernant les allergies et les conditions de co-morbidité reliées. Le second chapitre présente un cadre théorique pour l’évaluation et la priorisation d’interventions en santé publique par la diminution des allergènes présents dans l’environnement basées sur des théories de justice sociale. Les critères entourant les politiques d’évaluation se concentrent sur les enjeux éthiques référant aux populations vulnérables, sur une distribution plus égale des bénéfices pour la santé, et sur le devoir d’éviter la stigmatisation. Le troisième chapitre offre aux administrateurs et au personnel infirmier du réseau scolaire un cadre décisionnel pour guider le développement de politiques efficaces et éthiquement justifiables concernant les allergies alimentaires pour les écoles. Dans ce contexte, les principes de base d’éthique en santé publique et en bioéthique - par exemple, l’empowerment des populations vulnérables dans la prise en charge de leur santé et la protection de la confidentialité du dossier médical - servent d’outils pour évaluer les politiques. Le dernier chapitre emploie les principes de base de recherche en éthique comme méthode pour développer un argumentaire en faveur de la réforme des réglementations entourant la production de médicaments immunothérapeutiques. La nécessité éthique d’éviter les risques de méfait à l’endroit du sujet humain dans la recherche permettra de servir de guide pour structurer de futures politiques en santé publique en égard à la production d’immunothérapeutiques à l’échelle mondiale.
Resumo:
L’érosion éolienne est un problème environnemental parmi les plus sévères dans les régions arides, semi-arides et les régions sèches sub-humides de la planète. L’érosion des sols accélérée par le vent provoque des dommages à la fois localement et régionalement. Sur le plan local, elle cause la baisse des nutriments par la mobilisation des particules les plus fines et de la matière organique. Cette mobilisation est une des causes de perte de fertilité des sols avec comme conséquence, une chute de la productivité agricole et une réduction de la profondeur de la partie arable. Sur le plan régional, les tempêtes de poussières soulevées par le vent ont un impact non négligeable sur la santé des populations, et la déposition des particules affecte les équipements hydrauliques tels que les canaux à ciel ouvert ainsi que les infrastructures notamment de transport. Dans les régions où les sols sont fréquemment soumis à l’érosion éolienne, les besoins pour des études qui visent à caractériser spatialement les sols selon leur degré de vulnérabilité sont grands. On n’a qu’à penser aux autorités administratives qui doivent décider des mesures à prendre pour préserver et conserver les potentialités agropédologiques des sols, souvent avec des ressources financières modestes mises à leur disposition. Or, dans certaines de ces régions, comme notre territoire d’étude, la région de Thiès au Sénégal, ces études font défaut. En effet, les quelques études effectuées dans cette région ou dans des contextes géographiques similaires ont un caractère plutôt local et les approches suivies (modèles de pertes des sols) nécessitent un nombre substantiel de données pour saisir la variabilité spatiale de la dynamique des facteurs qui interviennent dans le processus de l’érosion éolienne. La disponibilité de ces données est particulièrement problématique dans les pays en voie de développement, à cause de la pauvreté en infrastructures et des problèmes de ressources pour le monitoring continu des variables environnementales. L’approche mise de l’avant dans cette recherche vise à combler cette lacune en recourant principalement à l’imagerie satellitale, et plus particulièrement celle provenant des satellites Landsat-5 et Landsat-7. Les images Landsat couvrent la presque totalité de la zone optique du spectre exploitable par télédétection (visible, proche infrarouge, infrarouge moyen et thermique) à des résolutions relativement fines (quelques dizaines de mètres). Elles permettant ainsi d’étudier la distribution spatiale des niveaux de vulnérabilité des sols avec un niveau de détails beaucoup plus fin que celui obtenu avec des images souvent utilisées dans des études environnementales telles que AVHRR de la série de satellites NOAA (résolution kilométrique). De plus, l’archive complet des images Landsat-5 et Landsat-7 couvrant une période de plus de 20 ans est aujourd’hui facilement accessible. Parmi les paramètres utilisés dans les modèles d’érosion éolienne, nous avons identifiés ceux qui sont estimables par l’imagerie satellitale soit directement (exemple, fraction du couvert végétal) soit indirectement (exemple, caractérisation des sols par leur niveau d’érodabilité). En exploitant aussi le peu de données disponibles dans la région (données climatiques, carte morphopédologique) nous avons élaboré une base de données décrivant l’état des lieux dans la période de 1988 à 2002 et ce, selon les deux saisons caractéristiques de la région : la saison des pluies et la saison sèche. Ces données par date d’acquisition des images Landsat utilisées ont été considérées comme des intrants (critères) dans un modèle empirique que nous avons élaboré en modulant l’impact de chacun des critères (poids et scores). À l’aide de ce modèle, nous avons créé des cartes montrant les degrés de vulnérabilité dans la région à l’étude, et ce par date d’acquisition des images Landsat. Suite à une série de tests pour valider la cohérence interne du modèle, nous avons analysé nos cartes afin de conclure sur la dynamique du processus pendant la période d’étude. Nos principales conclusions sont les suivantes : 1) le modèle élaboré montre une bonne cohérence interne et est sensible aux variations spatiotemporelles des facteurs pris en considération 2); tel qu’attendu, parmi les facteurs utilisés pour expliquer la vulnérabilité des sols, la végétation vivante et l’érodabilité sont les plus importants ; 3) ces deux facteurs présentent une variation importante intra et inter-saisonnière de sorte qu’il est difficile de dégager des tendances à long terme bien que certaines parties du territoire (Nord et Est) aient des indices de vulnérabilité forts, peu importe la saison ; 4) l’analyse diachronique des cartes des indices de vulnérabilité confirme le caractère saisonnier des niveaux de vulnérabilité dans la mesure où les superficies occupées par les faibles niveaux de vulnérabilité augmentent en saison des pluies, donc lorsque l’humidité surfacique et la végétation active notamment sont importantes, et décroissent en saison sèche ; 5) la susceptibilité, c’est-à-dire l’impact du vent sur la vulnérabilité est d’autant plus forte que la vitesse du vent est élevée et que la vulnérabilité est forte. Sur les zones où la vulnérabilité est faible, les vitesses de vent élevées ont moins d’impact. Dans notre étude, nous avons aussi inclus une analyse comparative entre les facteurs extraits des images Landsat et celles des images hyperspectrales du satellite expérimental HYPERION. Bien que la résolution spatiale de ces images soit similaire à celle de Landsat, les résultats obtenus à partir des images HYPERION révèlent un niveau de détail supérieur grâce à la résolution spectrale de ce capteur permettant de mieux choisir les bandes spectrales qui réagissent le plus avec le facteur étudié. Cette étude comparative démontre que dans un futur rapproché, l’amélioration de l’accessibilité à ce type d’images permettra de raffiner davantage le calcul de l’indice de vulnérabilité par notre modèle. En attendant cette possibilité, on peut de contenter de l’imagerie Landsat qui offre un support d’informations permettant tout de même d’évaluer le niveau de fragilisation des sols par l’action du vent et par la dynamique des caractéristiques des facteurs telles que la couverture végétale aussi bien vivante que sénescente.
Resumo:
This thesis examines the microeconomic consequences of the arrival of open source in the software market. Specifically, it analyzes three features of open source software by using specific models of industrial organization. Open source software is free, and may be modified or duplicated by anyone. The first paper studies the entry of an open source software in a closed source software market. Using a model of horizontal differentiation, the analysis considers a closed source firm's investment in the quality of its software. The introduction of open source on the market reduces the firm's investment in quality and increases the price of its software. Moreover, the entry of open source software may reduce consumer welfare. Post-entry by an open source software, the reduction in market share lowers the firm's incentive to invest in quality. The second paper features vertical differentiation to study a monopolist selling supporting product to its software. The study begins by contrasting the supply of support by an open source provider and a closed source vendor. The model shows that in both cases the levels of support offered are the same. In addition, consumer welfare is higher and profit lower under an open source software. Then, the paper considers the competition in the provision of support. Here, the supply of high level support is greater than under a monopolist. Finally, the monopolist adopts a dual licensing strategy to extract more surplus from developers interested in modifying open source software and redistributing the resulting product. This technique, when the developers place high value on the source code, generates more profit if the monopolist chooses to publish as open source rather than closed source. The last paper studies how a closed source firm is affected by the introduction of an open source benefiting from contributions by users. A vertical differentiation model is used, and reveals that, when contribution of users is present, the closed source vendor may lower its price to a level where it forces the open source out of the market. The firm's lower price not only increases demand for its software, but also induces consumers into switching from open to closed source software therefore reducing the contribution of users.