290 resultados para principe de précaution


Relevância:

10.00% 10.00%

Publicador:

Resumo:

La présente étude examine une des difficultés que soulève la résolution du contrat de vente en droit africain des affaires. L'Organisation pour l'Harmonisation en Afrique du Droit des Affaires (OHADA) créée par le Traité du 17 octobre 1993 organise les règles communautaires relatives à la résolution du contrat de vente. Le Livre VIII de l’Acte uniforme OHADA portant sur le Droit commercial Général a été adopté le 15 décembre 2010 et a abrogé l’Acte du 17 avril 1997. Selon l’article 281 de l’Acte uniforme, la résolution du contrat de vente ne survient que lors de l’inexécution totale ou partielle de l’obligation du cocontractant. Notre étude visera à évaluer les conséquences dans le droit de la vente OHADA de la substitution du critère de privation substantielle par celui de la gravité du comportement du débiteur justifiant une résolution unilatérale du contrat. Cette nouvelle position du droit de la vente OHADA se démarque dans une certaine mesure du droit matériel uniforme et rejoint un courant adapté aux impératifs socioéconomiques du commerce tant régional qu’international. En outre la partie lésée devra déterminer la gravité du comportement du débiteur au risque de voir sa demande sanctionnée pour défaut de droit et donner lieu à des dommages intérêts à l’autre partie. En effet, avec pour optique la nécessité de sauvegarder le contrat au nom du principe favor contractus, comment le juge détermine a posteriori si la gravité du comportement du cocontractant est suffisante pour anéantir le contrat? Ce nouveau critère de la gravité du comportement du cocontractant en droit de la vente OHADA vient supplanter le critère de la privation substantielle et fait cohabiter la traditionnelle résolution judiciaire avec celle de la résolution unilatérale dont les contours demeurent incertains. Les cas d’ouvertures liés à la résolution du contrat de vente OHADA pour inexécution des obligations fondamentales ou accessoires seront passés au crible de même que leurs effets sur les parties. Dans une approche comparatiste avec la Convention de Vienne et les règles de codifications privés telles que les Principes UNIDROIT ou du Droit Européen des Contrats il y a lieu de s’interroger sur la mise en œuvre et les conséquences de la résolution du contrat de vente OHADA par l’inexécution de l’obligation d’une des parties due à un manquement essentiel d’une part et à la gravité du comportement du débiteur d’autre part.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

À la fin du siècle dernier, lorsque les mouvements féministes secouèrent les milieux intellectuels, les questionnements sur le genre se sont retrouvés au cœur des débats en sciences sociales et en archéologie. L’archéologie maya n’échappa pas à la règle et les femmes, jusque là restées dans l’ombre, retrouvèrent une visibilité. Ce mémoire a pour objectif de dégager la complexité des constructions sociales, symboliques et idéologiques de genre au sein des couches sociales les plus élevées de la société maya classique, en regroupant et en confrontant une bonne partie des données archéologiques, iconographiques, épigraphiques mais aussi ethnohistoriques répertoriées dans la littérature. Nos résultats défendent l’idée selon laquelle les relations et les identités de genres au sein des élites dirigeantes, mais également non dirigeantes, étaient construites autour d'un principe fondamental de la pensée maya : la dualité complémentaire.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Hypothèse : Le nanobroyage d'une suspension de nystatine augmentera son efficacité antifongique in vitro et in vivo. Méthode : Une nanosupension de nystatine a été obtenue en utilisant le broyage humide. Elle a été caractérisée pour sa distribution de taille des particules et pour sa teneur en principe actif. L'activité in vitro a été évaluée contre les souches de C. albicans SC5314 et LAM-1 aux concentrations 12.5 μg/mL jusqu'à 5000 μg/mL. L'efficacité in vivo a été évaluée en utilisant un modèle murin de candidose oropharyngée. Résultats : La taille médiane des particules de la nanosuspension de nystatine a été réduite de 6577 nm à 137 nm. L'analyse CLHP a demontré une teneur de 98.7 ± 0.8%. L'activité in vitro de la nanosuspension était supérieure à la suspension aux concentrations 100 μg/mL à 5000 μg/mL. La charge fongique orale était inférieure dans le groupe traité par la nanosuspension comparativement aux autres groupes. La survie des souris était aussi supérieure.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

La présente étude a pour objectif de vérifier si le Canada respecte les prescriptions internationales en matière de droits de l’homme et d’entreprises vis-à-vis de l’encadrement qu’il exerce sur les sociétés minières canadiennes évoluant à l’étranger. En 2011, le Conseil des droits de l’homme de l’ONU a adopté des «Principes directeurs» afin de mettre en oeuvre le cadre de référence « Protéger, Respecter, Réparer » du Représentant spécial chargé de la question des droits de l’homme et des sociétés transnationales et autres entreprises. Selon ce cadre de référence, les États ont des obligations de protection et de réparation alors que les entreprises ont seulement la responsabilité de respecter les droits humains. Après six années de travail, le Représentant spécial John Ruggie, a fait le choix de formuler dans ses «Principes directeurs» des directives non contraignantes à l’égard des États et des entreprises afin de les aider à remplir leurs obligations et responsabilités vis-à-vis des droits de l’homme. Selon, l’ONU, cet instrument de portée universelle est le plus élaboré en la matière, si bien qu’il est recommandé aux entreprises et plus particulièrement aux États de s’y conformer lors de l’élaboration de leurs politiques respectives en matière d'activité économique et de droits humains. Il convient donc de vérifier d’une part si l’encadrement exercé par l’appareil législatif et gouvernemental vis-à-vis des sociétés minières canadiennes évoluant à l’étranger est conforme au principe directeur «Protéger». D’autres part, il convient de vérifier si les recours judiciaires et extrajudiciaires disponibles au Canada remplissent les exigences du principe directeur «Réparer». Cette double analyse permettra de conclure que le Canada respecte dans les grandes lignes ces «Principes directeurs» mais qu’il pourrait faire bien plus notamment en terme d’accès à des réparations effectives pour les victimes étrangères de minières canadiennes.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Les récepteurs couplés aux protéines G (RCPG) constituent la plus grande famille de protéines membranaires du génome humain. Ils transmettent les signaux extracellulaires provenant de plusieurs stimuli comme les odeurs, les ions, les hormones et les neurotransmetteurs, à l'intérieur des cellules. En se liant aux RCPGs, ces molécules contribuent à la stabilisation des changements conformationnels activateurs qui se propagent jusqu'au domaine intracellulaire des récepteurs. Ces derniers engagent ensuite un ou plusieurs effecteurs, comme les protéines G hétérotrimériques et les β-arrestines (βarrs), qui activent une cascade d'événements moléculaires menant à la réponse cellulaire.Récemment, la publication de structures cristallines de RCPGs liant des ligands diffusibles a offert une opportunité de raffiner à une résolution atomique les modèles des mécanismes de transduction des signaux. Dans la première partie de cette thèse, nous avons donc exploré les déterminants de la signalisation du récepteur prototypique β2-adrénergique (β2AR), induite par les β-bloqueurs. En ne tenant compte que de leur efficacités sur le β2AR dans les voies de l'adénylate cyclase (AC) et des protéines kinases activées par les facteurs mitogéniques (MAPK), les β-bloqueurs peuvent être classés en 3 groupes distincts (agoniste inverse AC / agoniste MAPK, antagoniste neutre AC / agoniste MAPK et agoniste inverse AC / agoniste inverse MAPK). Afin de déterminer le lien entre leur efficacité et leur mode de liaison, nous avons réalisé des expériences d'arrimages moléculaires in silico entre des β-bloqueurs de chacun des groupes et la structure cristalline du β2AR liée au carazolol. De manière intéressante, les ligands à l'intérieur d'un groupe partagent un mode de liaison, alors que ceux des ligands entre les groupes divergent, suggérant que le mode de liaison des β-bloqueurs pourrait être utilisé pour prédire leur l'efficacité. En accord avec cette hypothèse, nous avons prédit et confirmé l'efficacité agoniste MAPK du carazolol, un inverse agoniste AC du β2AR se liant au récepteur de manière similaire au groupe inverse agoniste AC / agoniste MAPK. De manière intéressante, le groupement aryl des ligands agonistes inverses agonistes AC / agoniste MAPK, le seul groupement chimique variable de ce groupe, est prédite pour lier la région des 3e et 5e hélices transmembranaires (TM3 et TM5). Nous avons donc émis l'hypothèse que cette région pourrait être un déterminant de l'efficacité de ces ligands. En accord avec cette dernière, la mutation de 2 résidus (T118I, S203A) localisés proches du site de liaison des groupements aryls des β-bloqueurs, prévient l'efficacité agoniste inverse de l'ICI-118551 sur la voie de l'AC sans affecter l'efficacité d'un agoniste, indiquant que cette région est importante pour la transmission de l'effet agoniste inverse, du moins sur la voie de l'AC. Les βarrs sont des protéines d'échafaudage qui coordonnent la formation de complexes avec plusieurs dizaines d'effecteurs de signalisation. Originalement identifiées pour leur rôle dans la désensibilisation et l'internalisation des RCPGs, elles sont aussi d'importants effecteurs de la signalisation des RCPGs indépendante des protéines G hétérotrimériques. Cependant, contrairement aux protéines G hétérotrimériques, il n'existe que peu d'outils pour les étudier. Ainsi, la deuxième partie de la thèse est dédiée au développement d'outils pour l'étude des βarrs. À cette fin, nous avons d'abord tenté de transposer une méthode de mesure de l'interaction entre 2 protéines par la technologie de transfert d'énergie de bioluminescence par résonance (BRET) en microscopie et chez des souris transgéniques afin de mesurer de manière subcellulaire et dans un contexte natif l'engagement de la βarr à des RCPGs. Ainsi, nous avons établi les preuves de principe que le BRET peut être utilisé pour localiser l'interaction entre la βarr et le récepteur de la vasopressine de type 2 (V2R) sur une cellule au microscope et pour détecter l'interaction entre la βarr et le β2AR sur des tissus de souris transgéniques exprimant ces protéines fusionnées avec des partenaires BRET. Finalement, il n'existe aucun inhibiteur pharmacologique ciblant les βarrs. Ainsi, grâce à la combinaison d'approches de criblage virtuel sur un modèle de la structure des βarrs et d'essais de validation cellulaire, nous avons développé un inhibiteur pharmacologique des βarrs. À l'aide de cet outil, nous avons confirmé l'implication des βarrs dans l'activation des MAPK par le V2R, mais aussi montré un nouveau rôle des βarrs dans le recyclage du β2AR. Les connaissances et outils développés dans cette thèse permettront de mieux comprendre les déterminants moléculaires de la signalisation des RCPGs et entre autres, grâce à des nouvelles approches pour étudier le rôle cellulaire et physiologique des βarrs.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

La vectorisation des médicaments est une approche très prometteuse tant sur le plan médical qu’économique pour la livraison des substances actives ayant une faible biodisponibilité. Dans ce contexte, les polymères en étoile et les dendrimères, macromolécules symétriques et branchées, semblent être les solutions de vectorisation les plus attrayantes. En effet, ces structures peuvent combiner efficacement une stabilité élevée dans les milieux biologiques à une capacité d’encapsulation des principes actifs. Grâce à leur architecture bien définie, ils permettent d’atteindre un très haut niveau de reproductibilité de résultats, tout en évitant le problème de polydispersité. Bien que des nombreuses structures dendritiques aient été proposées ces dernières années, il est cependant à noter que la conception de nouveaux nanovecteurs dendritiques efficaces est toujours d’actualité. Ceci s’explique par des nombreuses raisons telles que celles liées à la biocompatibilité, l’efficacité d’encapsulation des agents thérapeutiques, ainsi que par des raisons économiques. Dans ce projet, de nouvelles macromolécules branchées biocompatibles ont été conçues, synthétisées et évaluées. Pour augmenter leur efficacité en tant qu’agents d’encapsulations des principes actifs hydrophobes, les structures de ces macromolécules incluent un coeur central hydrophobe à base de porphyrine, décanediol ou trioléine modifié et, également, une couche externe hydrophile à base d’acide succinique et de polyéthylène glycol. Le choix des éléments structuraux de futures dendrimères a été basé sur les données de biocompatibilité, les résultats de nos travaux de synthèse préliminaires, ainsi que les résultats de simulation in silico réalisée par une méthode de mécanique moléculaire. Ces travaux ont permis de choisir des composés les plus prometteurs pour former efficacement et d’une manière bien contrôlable des macromolécules polyesters. Ils ont aussi permis d’évaluer au préalable la capacité de futurs dendrimères de capter une molécule médicamenteuse (itraconazole). Durant cette étape, plusieurs nouveaux composés intermédiaires ont été obtenus. L’optimisation des conditions menant à des rendements réactionnels élevés a été réalisée. En se basant sur les travaux préliminaires, l’assemblage de nouveaux dendrimères de première et de deuxième génération a été effectué, en utilisant les approches de synthèse divergente et convergente. La structure de nouveaux composés a été prouvée par les techniques RMN du proton et du carbone 13C, spectroscopie FTIR, UV-Vis, analyse élémentaire, spectrométrie de masse et GPC. La biocompatibilité de produits a été évaluée par les tests de cytotoxicité avec le MTT sur les macrophages murins RAW-262.7. La capacité d’encapsuler les principes actifs hydrophobes a été étudiée par les tests avec l’itraconazole, un antifongique puissant mais peu biodisponible. La taille de nanoparticules formées dans les solutions aqueuses a été mesurée par la technique DLS. Ces mesures ont montré que toutes les structures dendritiques ont tendance à former des micelles, ce qui exclue leurs applications en tant que nanocapsules unimoléculaires. L’activité antifongique des formulations d’itraconazole encapsulé avec les dendrimères a été étudiée sur une espèce d’un champignon pathogène Candida albicans. Ces tests ont permis de conclure que pour assurer l’efficacité du traitement, un meilleur contrôle sur le relargage du principe actif était nécessaire.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

La recherche analyse le traitement réservé aux demandeurs d'asile au Canada.Plus spécialement, elle se penche sur l'interprétation et l’application de l’article 7 de la Charte canadienne des droits et libertés. La réflexion observe que la mise en œuvre des droits fondamentaux des revendicateurs du statut de réfugié est affectée, selon les époques, par des considérations à dominance « humanitaires » [arrêt Singh, 1985] ou, comme cela est le cas depuis le 11 septembre 2001, par des impératifs allégués de sécurité nationale [arrêt Suresh, 2002]. D’un point de vue analytique, la thèse considère que lorsqu'il s'agit de protéger des populations vulnérables – ce que le Canada s'est juridiquement engagé à faire – le droit public ne peut pas se limiter à la communauté de ses propres membres, citoyens et résidents. D'ailleurs, la Charte reconnaît la protection de ses droits fondamentaux à « toute personne » du fait de sa seule qualité de personne, qu'elle soit ou non citoyenne et la garde des abus. Des exceptions aux droits reconnus à l’article 7 doivent être considérées à la mesure du principe démocratique qui guide nos sociétés. Sur ce fondement, l’analyse interroge l’argumentation et les motivations de certaines décisions judiciaires et législatives qui ont déconsidérées les implications de notions porteuses de valeurs impératives, telles que l'équité, la dignité humaine, la liberté et la sécurité de l'individu, en privilégiant les intérêts étatiques conforment à la conception classique de la souveraineté.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Les amidons non modifiées et modifiés représentent un groupe d’excipients biodégradables et abondants particulièrement intéressant. Ils ont été largement utilisés en tant qu’excipients à des fins diverses dans des formulations de comprimés, tels que liants et/ou agents de délitement. Le carboxyméthylamidon sodique à haute teneur en amylose atomisé (SD HASCA) a été récemment proposé comme un excipient hydrophile à libération prolongée innovant dans les formes posologiques orales solides. Le carboxyméthylamidon sodique à haute teneur en amylose amorphe (HASCA) a d'abord été produit par l'éthérification de l'amidon de maïs à haute teneur en amylose avec le chloroacétate. HASCA a été par la suite séché par atomisation pour obtenir le SD HASCA. Ce nouvel excipient a montré des propriétés présentant certains avantages dans la production de formes galéniques à libération prolongée. Les comprimés matriciels produits à partir de SD HASCA sont peu coûteux, simples à formuler et faciles à produire par compression directe. Le principal objectif de cette recherche était de poursuivre le développement et l'optimisation des comprimés matriciels utilisant SD HASCA comme excipient pour des formulations orales à libération prolongée. A cet effet, des tests de dissolution simulant les conditions physiologiques du tractus gastro-intestinal les plus pertinentes, en tenant compte de la nature du polymère à l’étude, ont été utilisés pour évaluer les caractéristiques à libération prolongée et démontrer la performance des formulations SD HASCA. Une étude clinique exploratoire a également été réalisée pour évaluer les propriétés de libération prolongée de cette nouvelle forme galénique dans le tractus gastro-intestinal. Le premier article présenté dans cette thèse a évalué les propriétés de libération prolongée et l'intégrité physique de formulations contenant un mélange comprimé de principe actif, de chlorure de sodium et de SD HASCA, dans des milieux de dissolution biologiquement pertinentes. L'influence de différentes valeurs de pH acide et de temps de séjour dans le milieu acide a été étudiée. Le profil de libération prolongée du principe actif à partir d'une formulation de SD HASCA optimisée n'a pas été significativement affecté ni par la valeur de pH acide ni par le temps de séjour dans le milieu acide. Ces résultats suggèrent une influence limitée de la variabilité intra et interindividuelle du pH gastrique sur la cinétique de libération à partir de matrices de SD HASCA. De plus, la formulation optimisée a gardé son intégrité pendant toute la durée des tests de dissolution. L’étude in vivo exploratoire a démontré une absorption prolongée du principe actif après administration orale des comprimés matriciels de SD HASCA et a montré que les comprimés ne se sont pas désintégrés en passant par l'estomac et qu’ils ont résisté à l’hydrolyse par les α-amylases dans l'intestin. Le deuxième article présente le développement de comprimés SD HASCA pour une administration orale une fois par jour et deux fois par jour contenant du chlorhydrate de tramadol (100 mg et 200 mg). Ces formulations à libération prolongée ont présenté des valeurs de dureté élevées sans nécessiter l'ajout de liants, ce qui facilite la production et la manipulation des comprimés au niveau industriel. La force de compression appliquée pour produire les comprimés n'a pas d'incidence significative sur les profils de libération du principe actif. Le temps de libération totale à partir de comprimés SD HASCA a augmenté de manière significative avec le poids du comprimé et peut, de ce fait, être utilisé pour moduler le temps de libération à partir de ces formulations. Lorsque les comprimés ont été exposés à un gradient de pH et à un milieu à 40% d'éthanol, un gel très rigide s’est formé progressivement sur leur surface amenant à la libération prolongée du principe actif. Ces propriétés ont indiqué que SD HASCA est un excipient robuste pour la production de formes galéniques orales à libération prolongée, pouvant réduire la probabilité d’une libération massive de principe actif et, en conséquence, des effets secondaires, même dans le cas de co-administration avec une forte dose d'alcool. Le troisième article a étudié l'effet de α-amylase sur la libération de principe actif à partir de comprimés SD HASCA contenant de l’acétaminophène et du chlorhydrate de tramadol qui ont été développés dans les premières étapes de cette recherche (Acetaminophen SR et Tramadol SR). La modélisation mathématique a montré qu'une augmentation de la concentration d’α-amylase a entraîné une augmentation de l'érosion de polymère par rapport à la diffusion de principe actif comme étant le principal mécanisme contrôlant la libération de principe actif, pour les deux formulations et les deux temps de résidence en milieu acide. Cependant, même si le mécanisme de libération peut être affecté, des concentrations d’α-amylase allant de 0 UI/L à 20000 UI/L n'ont pas eu d'incidence significative sur les profils de libération prolongée à partir de comprimés SD HASCA, indépendamment de la durée de séjour en milieu acide, le principe actif utilisé, la teneur en polymère et la différente composition de chaque formulation. Le travail présenté dans cette thèse démontre clairement l'utilité de SD HASCA en tant qu'un excipient à libération prolongée efficace.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Cette thèse de doctorat consiste en trois chapitres qui traitent des sujets de choix de portefeuilles de grande taille, et de mesure de risque. Le premier chapitre traite du problème d’erreur d’estimation dans les portefeuilles de grande taille, et utilise le cadre d'analyse moyenne-variance. Le second chapitre explore l'importance du risque de devise pour les portefeuilles d'actifs domestiques, et étudie les liens entre la stabilité des poids de portefeuille de grande taille et le risque de devise. Pour finir, sous l'hypothèse que le preneur de décision est pessimiste, le troisième chapitre dérive la prime de risque, une mesure du pessimisme, et propose une méthodologie pour estimer les mesures dérivées. Le premier chapitre améliore le choix optimal de portefeuille dans le cadre du principe moyenne-variance de Markowitz (1952). Ceci est motivé par les résultats très décevants obtenus, lorsque la moyenne et la variance sont remplacées par leurs estimations empiriques. Ce problème est amplifié lorsque le nombre d’actifs est grand et que la matrice de covariance empirique est singulière ou presque singulière. Dans ce chapitre, nous examinons quatre techniques de régularisation pour stabiliser l’inverse de la matrice de covariance: le ridge, spectral cut-off, Landweber-Fridman et LARS Lasso. Ces méthodes font chacune intervenir un paramètre d’ajustement, qui doit être sélectionné. La contribution principale de cette partie, est de dériver une méthode basée uniquement sur les données pour sélectionner le paramètre de régularisation de manière optimale, i.e. pour minimiser la perte espérée d’utilité. Précisément, un critère de validation croisée qui prend une même forme pour les quatre méthodes de régularisation est dérivé. Les règles régularisées obtenues sont alors comparées à la règle utilisant directement les données et à la stratégie naïve 1/N, selon leur perte espérée d’utilité et leur ratio de Sharpe. Ces performances sont mesurée dans l’échantillon (in-sample) et hors-échantillon (out-of-sample) en considérant différentes tailles d’échantillon et nombre d’actifs. Des simulations et de l’illustration empirique menées, il ressort principalement que la régularisation de la matrice de covariance améliore de manière significative la règle de Markowitz basée sur les données, et donne de meilleurs résultats que le portefeuille naïf, surtout dans les cas le problème d’erreur d’estimation est très sévère. Dans le second chapitre, nous investiguons dans quelle mesure, les portefeuilles optimaux et stables d'actifs domestiques, peuvent réduire ou éliminer le risque de devise. Pour cela nous utilisons des rendements mensuelles de 48 industries américaines, au cours de la période 1976-2008. Pour résoudre les problèmes d'instabilité inhérents aux portefeuilles de grandes tailles, nous adoptons la méthode de régularisation spectral cut-off. Ceci aboutit à une famille de portefeuilles optimaux et stables, en permettant aux investisseurs de choisir différents pourcentages des composantes principales (ou dégrées de stabilité). Nos tests empiriques sont basés sur un modèle International d'évaluation d'actifs financiers (IAPM). Dans ce modèle, le risque de devise est décomposé en deux facteurs représentant les devises des pays industrialisés d'une part, et celles des pays émergents d'autres part. Nos résultats indiquent que le risque de devise est primé et varie à travers le temps pour les portefeuilles stables de risque minimum. De plus ces stratégies conduisent à une réduction significative de l'exposition au risque de change, tandis que la contribution de la prime risque de change reste en moyenne inchangée. Les poids de portefeuille optimaux sont une alternative aux poids de capitalisation boursière. Par conséquent ce chapitre complète la littérature selon laquelle la prime de risque est importante au niveau de l'industrie et au niveau national dans la plupart des pays. Dans le dernier chapitre, nous dérivons une mesure de la prime de risque pour des préférences dépendent du rang et proposons une mesure du degré de pessimisme, étant donné une fonction de distorsion. Les mesures introduites généralisent la mesure de prime de risque dérivée dans le cadre de la théorie de l'utilité espérée, qui est fréquemment violée aussi bien dans des situations expérimentales que dans des situations réelles. Dans la grande famille des préférences considérées, une attention particulière est accordée à la CVaR (valeur à risque conditionnelle). Cette dernière mesure de risque est de plus en plus utilisée pour la construction de portefeuilles et est préconisée pour compléter la VaR (valeur à risque) utilisée depuis 1996 par le comité de Bâle. De plus, nous fournissons le cadre statistique nécessaire pour faire de l’inférence sur les mesures proposées. Pour finir, les propriétés des estimateurs proposés sont évaluées à travers une étude Monte-Carlo, et une illustration empirique en utilisant les rendements journaliers du marché boursier américain sur de la période 2000-2011.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Cette thèse a pour but d’améliorer l’automatisation dans l’ingénierie dirigée par les modèles (MDE pour Model Driven Engineering). MDE est un paradigme qui promet de réduire la complexité du logiciel par l’utilisation intensive de modèles et des transformations automatiques entre modèles (TM). D’une façon simplifiée, dans la vision du MDE, les spécialistes utilisent plusieurs modèles pour représenter un logiciel, et ils produisent le code source en transformant automatiquement ces modèles. Conséquemment, l’automatisation est un facteur clé et un principe fondateur de MDE. En plus des TM, d’autres activités ont besoin d’automatisation, e.g. la définition des langages de modélisation et la migration de logiciels. Dans ce contexte, la contribution principale de cette thèse est de proposer une approche générale pour améliorer l’automatisation du MDE. Notre approche est basée sur la recherche méta-heuristique guidée par les exemples. Nous appliquons cette approche sur deux problèmes importants de MDE, (1) la transformation des modèles et (2) la définition précise de langages de modélisation. Pour le premier problème, nous distinguons entre la transformation dans le contexte de la migration et les transformations générales entre modèles. Dans le cas de la migration, nous proposons une méthode de regroupement logiciel (Software Clustering) basée sur une méta-heuristique guidée par des exemples de regroupement. De la même façon, pour les transformations générales, nous apprenons des transformations entre modèles en utilisant un algorithme de programmation génétique qui s’inspire des exemples des transformations passées. Pour la définition précise de langages de modélisation, nous proposons une méthode basée sur une recherche méta-heuristique, qui dérive des règles de bonne formation pour les méta-modèles, avec l’objectif de bien discriminer entre modèles valides et invalides. Les études empiriques que nous avons menées, montrent que les approches proposées obtiennent des bons résultats tant quantitatifs que qualitatifs. Ceux-ci nous permettent de conclure que l’amélioration de l’automatisation du MDE en utilisant des méthodes de recherche méta-heuristique et des exemples peut contribuer à l’adoption plus large de MDE dans l’industrie à là venir.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

L'objectif de ce mémoire est de comprendre la neutralité axiologique non pas comme une exigence épistémologique, mais plutôt comme un idéal éducationnel. Max Weber propose une science basée sur la description factuelle, de laquelle on exclut la formulation de jugements de valeur. Pour l'auteur, il est préférable de séparer les jugements descriptifs des jugements évaluatifs dans le but de préserver l'autonomie intellectuelle des étudiants. Comme il serait contraire au principe d'autonomie de laisser le professeur influencer et convaincre ses étudiants, de façon partisane, d'adhérer à certaines thèses normatives, Weber propose un mécanisme pour éviter que le professeur n'influence ses étudiants de manière illégitime. Les critiques contemporaines de la neutralité axiologique, en particulier celles de Sen et Putnam, voient dans le critère de neutralité un rejet de l'entrelacement logique des faits et des valeurs. Ils critiquent la supposée subjectivité des valeurs et, ce faisant, défendent une conception enrichie de la science où les valeurs éthiques sont présentes. Weber n'a jamais défendu qu'il était impossible de mener une analyse à la fois descriptive et normative. Seulement, on doit s'interroger sur les lieux où s'exprime la normativité, et s'assurer que toutes les conditions sont présentes pour qu'une discussion normative tende réellement à l'objectivité.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Contexte : L’anémie falciforme ou drépanocytose est un problème de santé important, particulièrement pour les patients d’origine africaine. La variation phénotypique de l’anémie falciforme est problématique pour le suivi et le traitement des patients. L’architecture génomique responsable de cette variabilité est peu connue. Principe : Mieux saisir la contribution génétique de la variation clinique de cette maladie facilitera l’identification des patients à risque de développer des phénotypes sévères, ainsi que l’adaptation des soins. Objectifs : L’objectif général de cette thèse est de combler les lacunes relatives aux connaissances sur l’épidémiologie génomique de l’anémie falciforme à l’aide d’une cohorte issue au Bénin. Les objectifs spécifiques sont les suivants : 1) caractériser les profils d’expressions génomiques associés à la sévérité de l’anémie falciforme ; 2) identifier des biomarqueurs de la sévérité de l’anémie falciforme ; 3) identifier la régulation génétique des variations transcriptionelles ; 4) identifier des interactions statistiques entre le génotype et le niveau de sévérité associé à l’expression ; 5) identifier des cibles de médicaments pour améliorer l’état des patients atteints d’anémie falciforme. Méthode : Une étude cas-témoins de 250 patients et 61 frères et soeurs non-atteints a été menée au Centre de Prise en charge Médical Intégré du Nourrisson et de la Femme Enceinte atteints de Drépanocytose, au Bénin entre février et décembre 2010. Résultats : Notre analyse a montré que des profils d’expressions sont associés avec la sévérité de l’anémie falciforme. Ces profils sont enrichis de génes des voies biologiques qui contribuent à la progression de la maladie : l’activation plaquettaire, les lymphocytes B, le stress, l’inflammation et la prolifération cellulaire. Des biomarqueurs transcriptionnels ont permis de distinguer les patients ayant des niveaux de sévérité clinique différents. La régulation génétique de la variation de l’expression des gènes a été démontrée et des interactions ont été identifiées. Sur la base de ces résultats génétiques, des cibles de médicaments sont proposées. Conclusion: Ce travail de thèse permet de mieux comprendre l’impact de la génomique sur la sévérité de l’anémie falciforme et ouvre des perspectives de développement de traitements ciblés pour améliorer les soins offerts aux patients.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Les implications philosophiques de la Théorie de la Perspective de 1979, notamment celles qui concernent l’introduction d’une fonction de valeur sur les résultats et d’un coefficient de pondération sur les probabilités, n’ont à ce jour jamais été explorées. Le but de ce travail est de construire une théorie philosophique de la volonté à partir des résultats de la Théorie de la Perspective. Afin de comprendre comment cette théorie a pu être élaborée il faut étudier la Théorie de l’Utilité Attendue dont elle est l’aboutissement critique majeur, c’est-à-dire les axiomatisations de la décision de Ramsey (1926), von Neumann et Morgenstern (1947), et enfin Savage (1954), qui constituent les fondements de la théorie classique de la décision. C’est entre autres la critique – par l’économie et la psychologie cognitive – du principe d’indépendance, des axiomes d’ordonnancement et de transitivité qui a permis de faire émerger les éléments représentationnels subjectifs à partir desquels la Théorie de la Perspective a pu être élaborée. Ces critiques ont été menées par Allais (1953), Edwards (1954), Ellsberg (1961), et enfin Slovic et Lichtenstein (1968), l’étude de ces articles permet de comprendre comment s’est opéré le passage de la Théorie de l’Utilité Attendue, à la Théorie de la Perspective. À l’issue de ces analyses et de celle de la Théorie de la Perspective est introduite la notion de Système de Référence Décisionnel, qui est la généralisation naturelle des concepts de fonction de valeur et de coefficient de pondération issus de la Théorie de la Perspective. Ce système, dont le fonctionnement est parfois heuristique, sert à modéliser la prise de décision dans l’élément de la représentation, il s’articule autour de trois phases : la visée, l’édition et l’évaluation. À partir de cette structure est proposée une nouvelle typologie des décisions et une explication inédite des phénomènes d’akrasie et de procrastination fondée sur les concepts d’aversion au risque et de surévaluation du présent, tous deux issus de la Théorie de la Perspective.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Cette thèse étudie des modèles de séquences de haute dimension basés sur des réseaux de neurones récurrents (RNN) et leur application à la musique et à la parole. Bien qu'en principe les RNN puissent représenter les dépendances à long terme et la dynamique temporelle complexe propres aux séquences d'intérêt comme la vidéo, l'audio et la langue naturelle, ceux-ci n'ont pas été utilisés à leur plein potentiel depuis leur introduction par Rumelhart et al. (1986a) en raison de la difficulté de les entraîner efficacement par descente de gradient. Récemment, l'application fructueuse de l'optimisation Hessian-free et d'autres techniques d'entraînement avancées ont entraîné la recrudescence de leur utilisation dans plusieurs systèmes de l'état de l'art. Le travail de cette thèse prend part à ce développement. L'idée centrale consiste à exploiter la flexibilité des RNN pour apprendre une description probabiliste de séquences de symboles, c'est-à-dire une information de haut niveau associée aux signaux observés, qui en retour pourra servir d'à priori pour améliorer la précision de la recherche d'information. Par exemple, en modélisant l'évolution de groupes de notes dans la musique polyphonique, d'accords dans une progression harmonique, de phonèmes dans un énoncé oral ou encore de sources individuelles dans un mélange audio, nous pouvons améliorer significativement les méthodes de transcription polyphonique, de reconnaissance d'accords, de reconnaissance de la parole et de séparation de sources audio respectivement. L'application pratique de nos modèles à ces tâches est détaillée dans les quatre derniers articles présentés dans cette thèse. Dans le premier article, nous remplaçons la couche de sortie d'un RNN par des machines de Boltzmann restreintes conditionnelles pour décrire des distributions de sortie multimodales beaucoup plus riches. Dans le deuxième article, nous évaluons et proposons des méthodes avancées pour entraîner les RNN. Dans les quatre derniers articles, nous examinons différentes façons de combiner nos modèles symboliques à des réseaux profonds et à la factorisation matricielle non-négative, notamment par des produits d'experts, des architectures entrée/sortie et des cadres génératifs généralisant les modèles de Markov cachés. Nous proposons et analysons également des méthodes d'inférence efficaces pour ces modèles, telles la recherche vorace chronologique, la recherche en faisceau à haute dimension, la recherche en faisceau élagué et la descente de gradient. Finalement, nous abordons les questions de l'étiquette biaisée, du maître imposant, du lissage temporel, de la régularisation et du pré-entraînement.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Travail d'intégration réalisé dans le cadre du cours PHT-6113.