510 resultados para Systèmes d’aide à la décision--Conception
Resumo:
En urbanisme, l’approche phénoménologique permet de se pencher sur l’expérience de l’individu et, plus précisément, sur le rapport que celui-ci entretient avec son milieu de vie. Cette approche permet de concevoir des milieux de vie mieux adaptés aux besoins et aux expectatives des individus et suppose des démarches d’aménagement qui accordent un rôle important au citoyen. Toutefois, si l’approche phénoménologique est couramment utilisée dans le cadre de travaux théoriques, elle est difficilement adoptée sur le terrain, en dépit de son utilité et des justifications que l’on peut donner à son utilisation au plan éthique. Dans le présent article, nous explorons les raisons d’une telle disparité en levant le voile sur une double difficulté : difficulté professionnelle, d’une part, à dépasser le modèle déterministe du rapport personne–environnement ; difficulté scientifique, d’autre part, à ancrer la production de connaissances dans les processus de transformation du milieu de vie.
Resumo:
Il est connu que les problèmes d'ambiguïté de la langue ont un effet néfaste sur les résultats des systèmes de Recherche d'Information (RI). Toutefois, les efforts de recherche visant à intégrer des techniques de Désambiguisation de Sens (DS) à la RI n'ont pas porté fruit. La plupart des études sur le sujet obtiennent effectivement des résultats négatifs ou peu convaincants. De plus, des investigations basées sur l'ajout d'ambiguïté artificielle concluent qu'il faudrait une très haute précision de désambiguation pour arriver à un effet positif. Ce mémoire vise à développer de nouvelles approches plus performantes et efficaces, se concentrant sur l'utilisation de statistiques de cooccurrence afin de construire des modèles de contexte. Ces modèles pourront ensuite servir à effectuer une discrimination de sens entre une requête et les documents d'une collection. Dans ce mémoire à deux parties, nous ferons tout d'abord une investigation de la force de la relation entre un mot et les mots présents dans son contexte, proposant une méthode d'apprentissage du poids d'un mot de contexte en fonction de sa distance du mot modélisé dans le document. Cette méthode repose sur l'idée que des modèles de contextes faits à partir d'échantillons aléatoires de mots en contexte devraient être similaires. Des expériences en anglais et en japonais montrent que la force de relation en fonction de la distance suit généralement une loi de puissance négative. Les poids résultant des expériences sont ensuite utilisés dans la construction de systèmes de DS Bayes Naïfs. Des évaluations de ces systèmes sur les données de l'atelier Semeval en anglais pour la tâche Semeval-2007 English Lexical Sample, puis en japonais pour la tâche Semeval-2010 Japanese WSD, montrent que les systèmes ont des résultats comparables à l'état de l'art, bien qu'ils soient bien plus légers, et ne dépendent pas d'outils ou de ressources linguistiques. La deuxième partie de ce mémoire vise à adapter les méthodes développées à des applications de Recherche d'Information. Ces applications ont la difficulté additionnelle de ne pas pouvoir dépendre de données créées manuellement. Nous proposons donc des modèles de contextes à variables latentes basés sur l'Allocation Dirichlet Latente (LDA). Ceux-ci seront combinés à la méthodes de vraisemblance de requête par modèles de langue. En évaluant le système résultant sur trois collections de la conférence TREC (Text REtrieval Conference), nous observons une amélioration proportionnelle moyenne de 12% du MAP et 23% du GMAP. Les gains se font surtout sur les requêtes difficiles, augmentant la stabilité des résultats. Ces expériences seraient la première application positive de techniques de DS sur des tâches de RI standard.
Resumo:
Les sociétés modernes dépendent de plus en plus sur les systèmes informatiques et ainsi, il y a de plus en plus de pression sur les équipes de développement pour produire des logiciels de bonne qualité. Plusieurs compagnies utilisent des modèles de qualité, des suites de programmes qui analysent et évaluent la qualité d'autres programmes, mais la construction de modèles de qualité est difficile parce qu'il existe plusieurs questions qui n'ont pas été répondues dans la littérature. Nous avons étudié les pratiques de modélisation de la qualité auprès d'une grande entreprise et avons identifié les trois dimensions où une recherche additionnelle est désirable : Le support de la subjectivité de la qualité, les techniques pour faire le suivi de la qualité lors de l'évolution des logiciels, et la composition de la qualité entre différents niveaux d'abstraction. Concernant la subjectivité, nous avons proposé l'utilisation de modèles bayésiens parce qu'ils sont capables de traiter des données ambiguës. Nous avons appliqué nos modèles au problème de la détection des défauts de conception. Dans une étude de deux logiciels libres, nous avons trouvé que notre approche est supérieure aux techniques décrites dans l'état de l'art, qui sont basées sur des règles. Pour supporter l'évolution des logiciels, nous avons considéré que les scores produits par un modèle de qualité sont des signaux qui peuvent être analysés en utilisant des techniques d'exploration de données pour identifier des patrons d'évolution de la qualité. Nous avons étudié comment les défauts de conception apparaissent et disparaissent des logiciels. Un logiciel est typiquement conçu comme une hiérarchie de composants, mais les modèles de qualité ne tiennent pas compte de cette organisation. Dans la dernière partie de la dissertation, nous présentons un modèle de qualité à deux niveaux. Ces modèles ont trois parties: un modèle au niveau du composant, un modèle qui évalue l'importance de chacun des composants, et un autre qui évalue la qualité d'un composé en combinant la qualité de ses composants. L'approche a été testée sur la prédiction de classes à fort changement à partir de la qualité des méthodes. Nous avons trouvé que nos modèles à deux niveaux permettent une meilleure identification des classes à fort changement. Pour terminer, nous avons appliqué nos modèles à deux niveaux pour l'évaluation de la navigabilité des sites web à partir de la qualité des pages. Nos modèles étaient capables de distinguer entre des sites de très bonne qualité et des sites choisis aléatoirement. Au cours de la dissertation, nous présentons non seulement des problèmes théoriques et leurs solutions, mais nous avons également mené des expériences pour démontrer les avantages et les limitations de nos solutions. Nos résultats indiquent qu'on peut espérer améliorer l'état de l'art dans les trois dimensions présentées. En particulier, notre travail sur la composition de la qualité et la modélisation de l'importance est le premier à cibler ce problème. Nous croyons que nos modèles à deux niveaux sont un point de départ intéressant pour des travaux de recherche plus approfondis.
Resumo:
Les systèmes sensoriels encodent l’information sur notre environnement sous la forme d’impulsions électriques qui se propagent dans des réseaux de neurones. Élucider le code neuronal – les principes par lesquels l’information est représentée dans l’activité des neurones – est une question fondamentale des neurosciences. Cette thèse constituée de 3 études (E) s’intéresse à deux types de codes, la synchronisation et l’adaptation, dans les neurones du cortex visuel primaire (V1) du chat. Au niveau de V1, les neurones sont sélectifs pour des propriétés comme l’orientation des contours, la direction et la vitesse du mouvement. Chaque neurone ayant une combinaison de propriétés pour laquelle sa réponse est maximale, l’information se retrouve distribuée dans différents neurones situés dans diverses colonnes et aires corticales. Un mécanisme potentiel pour relier l’activité de neurones répondant à des items eux-mêmes reliés (e.g. deux contours appartenant au même objet) est la synchronisation de leur activité. Cependant, le type de relations potentiellement encodées par la synchronisation n’est pas entièrement clair (E1). Une autre stratégie de codage consiste en des changements transitoires des propriétés de réponse des neurones en fonction de l’environnement (adaptation). Cette plasticité est présente chez le chat adulte, les neurones de V1 changeant d’orientation préférée après exposition à une orientation non préférée. Cependant, on ignore si des neurones spatialement proches exhibent une plasticité comparable (E2). Finalement, nous avons étudié la dynamique de la relation entre synchronisation et plasticité des propriétés de réponse (E3). Résultats principaux — (E1) Nous avons montré que deux stimuli en mouvement soit convergent soit divergent élicitent plus de synchronisation entre les neurones de V1 que deux stimuli avec la même direction. La fréquence de décharge n’était en revanche pas différente en fonction du type de stimulus. Dans ce cas, la synchronisation semble coder pour la relation de cocircularité dont le mouvement convergent (centripète) et divergent (centrifuge) sont deux cas particuliers, et ainsi pourrait jouer un rôle dans l’intégration des contours. Cela indique que la synchronisation code pour une information qui n’est pas présente dans la fréquence de décharge des neurones. (E2) Après exposition à une orientation non préférée, les neurones changent d’orientation préférée dans la même direction que leurs voisins dans 75% des cas. Plusieurs propriétés de réponse des neurones de V1 dépendent de leur localisation dans la carte fonctionnelle corticale pour l’orientation. Les comportements plus diversifiés des 25% de neurones restants sont le fait de différences fonctionnelles que nous avons observé et qui suggèrent une localisation corticale particulière, les singularités, tandis que la majorité des neurones semblent situés dans les domaines d’iso-orientation. (E3) Après adaptation, les paires de neurones dont les propriétés de réponse deviennent plus similaires montrent une synchronisation accrue. Après récupération, la synchronisation retourne à son niveau initial. Par conséquent, la synchronisation semble refléter de façon dynamique la similarité des propriétés de réponse des neurones. Conclusions — Cette thèse contribue à notre connaissance des capacités d’adaptation de notre système visuel à un environnement changeant. Nous proposons également des données originales liées au rôle potentiel de la synchronisation. En particulier, la synchronisation semble capable de coder des relations entre objets similaires ou dissimilaires, suggérant l’existence d’assemblées neuronales superposées.
Resumo:
Titre : La médecine familiale vue par des jeunes omnipraticiens : rejet de la vocation et de la continuité des soins. Alors qu’une proportion préoccupante de québécois et canadiens n’a pas accès à un médecin de famille et que les efforts se multiplient pour résoudre cette situation problématique, les jeunes omnipraticiens optent de plus en plus pour des profils de pratique spécialisés, délaissant la continuité de soins. Nous avons interviewé 18 jeunes médecins de famille présentant un profil de pratique surspécialisé et analysé leur propos avec une méthodologie qualitative. Ce mémoire propose, à l’aide d’une approche de théorisation ancrée, une théorie empiriquement fondée permettant de mieux comprendre ce phénomène, ses origines et ses conséquences. Nos observations nous amènent à proposer la théorie suivante : les jeunes omnipraticiens urgentistes sont des professionnels autonomes dynamiques et changeants : ils sont non-fixés personnellement et non-fixés professionnellement. Leur système de valeur (qualité de vie et liberté, compétence, performance, valorisation et satisfaction) constitue l’argument principal de leurs choix professionnels et de leur conception de leurs rôles et responsabilités : ils sont donc mus primairement par des intérêts individualistes. À ce stade-ci de leur vie et de leur carrière, la responsabilité sociale et le sens du devoir envers la population ne figurent pas parmi leurs valeurs fondamentales. Cette théorie novatrice qui propose que leurs choix professionnels se basent d’abord et avant tout sur leurs valeurs permet de mieux comprendre pourquoi les efforts actuels de valorisation de la médecine familiale ne génèrent pas les résultats escomptés. Nous proposons une nouvelle compréhension du sens, de l’origine et des implications des choix professionnels des jeunes généralistes tant aux plans pédagogique, professionnel que de santé populationnelle.
Resumo:
Cette étude cherche à établir un rapport entre les nombreuses références positives à l’animal présentes dans le corpus cynique et une certaine conception de l’activité philosophique mise de l’avant par ces philosophes et, plus particulièrement, incarnée par la figure de Diogène de Sinope. Comme il le sera brièvement montré dans la première partie, l’animal est un concept pratiquement absent de la pensée grecque qui tend à penser l’unité du vivant. Il ne peut faire son apparition que dans un contexte moral afin de fonder les normes de l’agir proprement humain, et dans ce contexte, les références positives à l’animal sont plutôt rares. La position des philosophes cyniques, qui exhortent fréquemment les hommes à s’inspirer des animaux afin d’atteindre la vertu, est donc, à cet égard, excessivement singulière. Comment interpréter ce renversement de perspective où l’homme ne semble plus occuper la position intermédiaire entre les immortels et les bêtes? En examinant les thèses de Thierry Gonthier, d’Ovide Florès-Junior et de Marie-Odile Goulet-Cazé sur la question, la deuxième partie de cette étude nous mettra sur la voie de la rhétorique d’exhortation qui, nous le verrons, est constitutive même de la pratique philosophique cynique. Il reste cependant à déterminer à quoi, plus précisément, les philosophes cyniques exhortent leurs concitoyens et, ce qui est pour cette étude le nœud du problème, dans quelle mesure la figure de l’animal est-elle susceptible de nous renseigner. La troisième partie de cette étude portera ainsi sur l’idéal de sagesse cynique et sur la figure emblématique du mouvement, le chien. Nous tâcherons alors de montrer, en prolongeant les lectures qu’en ont faites Jean-Marie Meilland, D. Deleule et Peter Sloterdijk, que la valorisation de l’animal chez les cyniques ne doit pas être comprise comme un vil appel à la régression en l’animalité mais plutôt comme la promotion d’une singulière conception de l’activité philosophique.
Resumo:
Dans ce travail, nous posons d’abord la question de la légitimité de la contestation internationale. En partant de la conception libérale de la souveraineté étatique, nous montrons que la contestation internationale pourrait être critiquée pour l’interférence qu’elle crée entre des acteurs étrangers. Pour défendre la légitimité de la contestation, nous argumentons en faveur de la position républicaine de Philip Pettit selon laquelle la souveraineté étatique ne devrait pas être comprise comme une absence d’interférence, mais plutôt comme une absence de domination. En montrant que les problèmes environnementaux peuvent être compris en tant que domination écologique, nous tentons alors de démontrer que la contestation internationale ne pose pas nécessairement problème pour la souveraineté des États, mais qu’au contraire, celle-ci peut servir protection contre d’éventuels cas de domination. Dans la seconde partie du travail, nous explorons la question de la légitimité des moyens de contestation utilisés par les activistes. En conservant les idées de Pettit concernant la domination, nous prenons toutefois nos distances par rapport à cet auteur et sa conception délibérative de la contestation. Nous amorcerons finalement la réflexion dans le but de trouver des critères pouvant légitimer certains recours à des moyens de contestation plus radicaux. Nous défendons notamment une position originale, voulant que la contestation soit comprise en continuité avec la délibération plutôt qu’en rupture avec celle-ci.
Resumo:
La présente thèse se veut une relecture du fumisme en tant que concept et mouvement historique daté (années 1860-1880) et situé (la France), ou moment qui représente une économie de sens qui a bouleversé les habitudes perceptuelles et intellectuelles de la réception depuis la seconde moitié du dix-neuvième siècle. Selon la lecture habituelle du fumisme, les productions des poètes et artistes fumistes, qualifiées de « fumisteries », ne forment qu’un chapitre, ou une catégorie négligeable, de l’histoire littéraire. Cette histoire confond le fumisme en tant que mouvement littéraire éphémère avec les épisodes décadent et symboliste pour le réduire à un concours de mystifications de bourgeois par des bohèmes en marge par rapport à l’institution littéraire organisées par le comédien Sapeck et l’écrivain Alphonse Allais, tous deux nommés ironiquement chefs de « l’École fumiste » vers 1880. Or, en offusquant la conception positiviste du langage qu’elle lui applique afin de le réduire à une simple provocation sans but, et en assimilant Rimbaud aux « fumisteries » des « décadents », la critique littéraire nous donne l’outil principal de démystification du fumisme en tant que pratique ou mode de production d’une économie de sens. C’est cette économie qui constitue notre principal point d’intérêt. Contemporain des épisodes décadent et symboliste, le moment fumiste oblige la réception à reconfigurer la façon de produire du sens. Les productions fumistes (essentiellement des poèmes et des caricatures, comme dans l’Album zutique, notre corpus principal) sont fondées sur une économie du rébus. Exemplifiée par le sonnet de Rimbaud intitulé « Voyelles », cette économie, qui crée des « documents », des textes inséparables de leur matière, introduit l’économie artistique du vingtième siècle – en particulier, au mode de perception cinématographique tel que fabriqué par le fumiste Émile Cohl.
Resumo:
Certaines personnes peuvent être stigmatisées quand elles présentent un attribut relié à une identité sociale qui est dénigrée dans un contexte particulier. Il existe plusieurs stéréotypes au sujet des personnes qui ont une perte d'audition. Le grand public associe souvent la perte d'audition à des comportements indésirables, au vieillissement et à une capacité intellectuelle réduite. Ces stéréotypes affectent négativement la participation des personnes ayant une perte auditive à diverses activités. Malgré les impacts évidents et importants que la stigmatisation a sur la participation sociale des personnes ayant une perte auditive et leur propension à recourir aux services de réadaptation, on constate une pénurie relative de recherche sur le stigmate lié à la perte d'audition. Ces dernières années, les chercheurs en sciences sociales ont fait de grands pas pour conceptualiser le stigmate selon la perspective des personnes qui sont la cible des attitudes nuisibles. La plupart de ces concepts peuvent s'appliquer au stigmate social lié à la perte d'audition. Le premier article de cette thèse tente de placer le stigmate lié à la perte d'audition dans un modèle de menace à l’identité induite par le stigmate (stigma-induced identity threat model). Ce chapitre explore comment les services pourraient être modifiés pour mieux soutenir les individus qui montrent des signes que leur identité personnelle est compromise à cause de leur perte d'audition. De façon générale, les buts de ce manuscrit sont a) de dresser un bref résumé de la question du stigmate lié à la perte d'audition ; b) de présenter un modèle spécifique de menace d'identité induite par le stigmate et d’incorporer des notions propres au stigmate lié à la perte d'audition à cette conceptualisation générale du stigmate et c) de réfléchir sur la pertinence de ce modèle pour la réadaptation audiologique. L'intention de la deuxième étude est de mieux comprendre comment le stigmate affecte les comportements de recherche d’aide des adultes ayant une perte d'audition acquise. Dix personnes ayant une perte d'audition, et appartenant à des groupes de soutien par les pairs ont participé à des entrevues semi-structurées audio-enregistrées. Les transcriptions de ces entrevues ont été analysées au moyen d’analyses thématiques. Les analyses ont indiqué que les répondants montre une plus grande propension à chercher de l'aide à la suite d’étapes charnières, où l’équilibre entre le stress négatif et l'énergie positive était rompu : a) un moment où le stress était de loin supérieur à l'énergie positive (première étape charnière) et b) un moment où l'énergie positive était de loin supérieure au stress négatif (deuxième étape charnière). On propose une série de représentations graphiques qui dépeignent comment les influences positives et négatives présentes dans l'environnement social et physique du répondant influencent la recherche d'aide. Le but de la troisième étude est d'identifier les facteurs qui amènent des individus à cacher ou révéler leur perte d'audition dans leur lieu de travail. Des entrevues semi-structurées ont été menées en utilisant une technique d’élicitation par photographies pour susciter des informations liées à la révélation de la perte d'audition. Les thèmes dégagés des entrevues incluent : l'importance perçue de la situation, la perception du sentiment de contrôle, l'affiliation à la communauté, le fardeau de communication et la présence de problèmes connexes à la perte d'audition. Les résultats de cette étude offrent un aperçu du monde caché des travailleurs ayant une perte d'audition. Cette étude sert à documenter certaines stratégies que les travailleurs avec une perte d'audition utilisent pour contrôler leur identité professionnelle et, plus spécifiquement, comment certains gèrent le dévoilement de leur perte d'audition dans leur lieu de travail. Les résultats fournissent des informations utiles pour le développement de programmes d'intervention appropriés pour des travailleurs ayant une perte d'audition.
Resumo:
Nous proposons une approche basée sur la formulation interactive des requêtes. Notre approche sert à faciliter des tâches d’analyse et de compréhension du code source. Dans cette approche, l’analyste utilise un ensemble de filtres de base (linguistique, structurel, quantitatif, et filtre d’interactivité) pour définir des requêtes complexes. Ces requêtes sont construites à l’aide d’un processus interactif et itératif, où des filtres de base sont choisis et exécutés, et leurs résultats sont visualisés, changés et combinés en utilisant des opérateurs prédéfinis. Nous avons évalués notre approche par l’implantation des récentes contributions en détection de défauts de conception ainsi que la localisation de fonctionnalités dans le code. Nos résultats montrent que, en plus d’être générique, notre approche aide à la mise en œuvre des solutions existantes implémentées par des outils automatiques.
Resumo:
Depuis la fin des années 1980, le phénomène de revitalisation culturelle amérindienne observé à l’échelle continentale s’est enraciné au Québec. Ce phénomène panindien, qui se définit entre autres par un mouvement de guérison dit communautaire – c’est- à-dire qui s’organise à l’intérieur-même des communautés (par opposition à ce qui vient de l’extérieur) – est caractérisé par la prise en charge des problèmes sociaux rencontrés par les populations amérindiennes. Par l’analyse du rite de la tente à sudation, une pratique emblématique de la spiritualité panindienne et du mouvement de guérison, ce mémoire explore la dualité des stratégies de relation d’aide qui y sont déployées. Pour ce faire, l’expérience en milieu carcéral et en communauté d’aînés et d’intervenants autochtones a été prise à témoin. L’enquête de terrain révèle ainsi qu’en parallèle avec la fonction de mobilisation sociale et politique associée à la revitalisation culturelle amérindienne, on assiste à une instrumentation du rituel à des fins psychothérapeutiques. Tout en s’inscrivant dans la structure cosmologique commune à plusieurs traditions orales algonquiennes, cet usage particulier de la symbolique du rituel met à jour une vision plus clinique, plus individualisée et plus dépolitisée de la guérison autochtone habituellement revendiqué dans le discours panindien.
Approximation de la distribution a posteriori d'un modèle Gamma-Poisson hiérarchique à effets mixtes
Resumo:
La méthode que nous présentons pour modéliser des données dites de "comptage" ou données de Poisson est basée sur la procédure nommée Modélisation multi-niveau et interactive de la régression de Poisson (PRIMM) développée par Christiansen et Morris (1997). Dans la méthode PRIMM, la régression de Poisson ne comprend que des effets fixes tandis que notre modèle intègre en plus des effets aléatoires. De même que Christiansen et Morris (1997), le modèle étudié consiste à faire de l'inférence basée sur des approximations analytiques des distributions a posteriori des paramètres, évitant ainsi d'utiliser des méthodes computationnelles comme les méthodes de Monte Carlo par chaînes de Markov (MCMC). Les approximations sont basées sur la méthode de Laplace et la théorie asymptotique liée à l'approximation normale pour les lois a posteriori. L'estimation des paramètres de la régression de Poisson est faite par la maximisation de leur densité a posteriori via l'algorithme de Newton-Raphson. Cette étude détermine également les deux premiers moments a posteriori des paramètres de la loi de Poisson dont la distribution a posteriori de chacun d'eux est approximativement une loi gamma. Des applications sur deux exemples de données ont permis de vérifier que ce modèle peut être considéré dans une certaine mesure comme une généralisation de la méthode PRIMM. En effet, le modèle s'applique aussi bien aux données de Poisson non stratifiées qu'aux données stratifiées; et dans ce dernier cas, il comporte non seulement des effets fixes mais aussi des effets aléatoires liés aux strates. Enfin, le modèle est appliqué aux données relatives à plusieurs types d'effets indésirables observés chez les participants d'un essai clinique impliquant un vaccin quadrivalent contre la rougeole, les oreillons, la rub\'eole et la varicelle. La régression de Poisson comprend l'effet fixe correspondant à la variable traitement/contrôle, ainsi que des effets aléatoires liés aux systèmes biologiques du corps humain auxquels sont attribués les effets indésirables considérés.
Resumo:
De 2005 à 2007, le Ministère du Développement social de l’Uruguay a mis en oeuvre le Plan d’aide nationale à l’urgence sociale (PANES). Parmi les résultats les plus notables que les évaluations ont fournis, citons la dénaturation de certains phénomènes socioculturels fortement enracinés : la violence conjugale, l’immobilité sociale et l’analphabétisme des adultes. Le fait de considérer ces phénomènes comme acceptables prouve l’existence de mécanismes générateurs de préférences irrationnelles ou adaptatives. Quels ont été les processus qui ont contribué à dénaturer ces préférences ? L’évaluation du PANES semble indiquer que l’une des voies a été la participation à des groupes de promotion et d’échange. Ces résultats font écho à la littérature philosophique croissante qui porte sur l’importance de la délibération et de la participation en ce qui concerne le développement de capacités et d’autonomie. Voici donc notre hypothèse de travail : les instances de participation qui entraînent une délibération publique peuvent conduire à la dénaturation de certaines pratiques qui restreignent l’autonomie personnelle, par le biais de la constitution d’une agence cognitive intersubjective. Cette agence comporte trois aspects : a) elle sous-tend l’élargissement d’un « espace à soi » chez le sujet ; b) elle établit une distance réflexive qui permet de revoir des préférences et de reconstruire des niveaux d’estime de soi, de respect de soi et de confiance en soi, etc.) c) elle fait office de sous-produit d’activités établies à d’autres fins.
Resumo:
Du fait de la montée des périls environnementaux, le concept de résilience fait l’objet d’une attention croissante dans le champ du développement. Il a d’abord été exploré dans le champ des analyses systémiques, celui des systèmes socio-écologiques en particulier. Il convient toutefois, d’une part d’interroger la pertinence et la portée de ce concept au niveau microéconomique, d’autre part d’interroger les liens qui l’unissent au développement durable. Le cadre conceptuel proposé articule l’approche par les capabilités et l’analyse économique de la gestion des risques, permettant de mettre en avant les capacités d’action face aux risques et de réaction face aux chocs. Il conduit à envisager la possibilité de faire de la résilience une finalité d’un développement durable. Ceci soulève deux difficultés majeures, tenant à la complexité de l’analyse des capacités d’action individuelles, et à l’articulation de ces capacités avec des dynamiques collectives.
Resumo:
Les oligonucléotides (ONs) antisens présentent un fort potentiel en tant qu’agents thérapeutiques. Toutefois, leurs propriétés physicochimiques limitent leur utilisation en thérapie génique. Pour pallier aux divers obstacles, des systèmes de vectorisation, tels que les micelles polyioniques (PICMs), ont été développés. Grâce à leur structure unique, les micelles protégent l’ON contre une dégradation prématurée et le couplage d’un ligand à leur surface augmente leur spécificité et leur internalisation. Dans d’autres systèmes, un polymère adjuvant aux propriétés pH-sensibles peut être ajouté pour faciliter la sortie de l’endosome et augmenter l’efficacité de l’ON. L’objectif général de ce mémoire était de mettre au point des PICMs ternaires ciblées pour l’administration d’ONs. Ces micelles assureraient à la fois l’internalisation cellulaire de leur cargaison en interagissant avec des récepteurs cellulaires et sa fuite de l’endosome grâce à un mécanisme de déstabilisation de la membrane endosomale. Pour cela, des PICMs composées d’un copolymère cationique de type poly(éthylène glycol)-bloc-poly(méthacrylate d’(alkylamino)éthyle) et d’un copolymère d’acide méthacrylique ont été préparées. Les propriétés physicochimiques de ces vecteurs ont démontré qu’ils permettaient une condensation efficace de l’acide nucléique et ce, indépendamment de la nature du polymère cationique et de l’acide nucléique. Finalement, une approche de couplage par pont disulfure a été développée afin de greffer au copolymère un fragment d’anticorps dirigé contre les récepteurs de la transferrine. En conclusion, ces travaux démontrent la versatilité et le potentiel des PICMs ternaires en tant que vecteurs d’acide nucléique, et proposent une méthodologie de couplage d’un ligand afin de formuler des PICMs ciblées.