1000 resultados para modèle linéaire généralisé
Resumo:
Cette recherche se propose de réfléchir sur la place des groupes d’intérêts dans le système politique de l’UE en partant de l’exemple de la filière lait. Dans un système généralement pluraliste, la PAC fait en effet figure de cas particulier puisqu’elle a fonctionné à partir des années 1960 sur une logique de co-gestion de la politique des marchés entre la Commission et la principale fédération agricole européenne, le Comité des Organisations Professionnelles agricoles (COPA) associé depuis 1962 au Comité Général de la Coopération agricole de l'Union européenne (COGECA). Néanmoins, du fait du processus de réforme de la PAC engagé depuis 1992, il paraît nécessaire d’analyser si la logique de co-gestion est remise en cause. Cette recherche conclue qu’il existe bien un rapport néo-corporatiste dans le secteur laitier, dans le sens où un acteur en particulier, le syndicat COPA-COGECA est parvenu à influencer de manière déterminante la procédure en obtenant de renforcer le pouvoir de négociation des producteurs sans revenir sur les réformes récentes de la PAC.
Resumo:
Suite à la crise financière de 2008 les pays du G20 se sont interrogés sur la transparence des marchés, la stabilité du système et une façon de réguler les risques posés par le nouvel environnement économique. Les produits dérivés de gré à gré ont été identifiés et des engagements ont été pris en faveur de nouvelles régulations des dérivés de gré à gré et la gestion des risques sous-jacents. Les régulateurs ont donc adopté chacun à leur tour un cadre législatif régulant les dérivés de gré à gré tout en déployant un effort international d'harmonisation et de reconnaissance des contreparties assujetties à des régimes équivalents. Les autorités canadiennes en valeurs mobilières ont publié des projets de règlements. Nous nous interrogerons sur ce nouveau cadre réglementaire des dérivés de gré à gré élaboré par les autorités canadiennes en valeurs mobilières, prenant en considération les spécificités canadiennes et les acteurs actifs sur leur territoire. Notre étude traite de ces projets de règlements et de la difficulté d'encadrer les marchés des dérivés de gré à gré qui par définition ne comportent pas de plateformes de négociation ou de lieu géographique et de frontières mais se caractérisent surtout par le lien contractuel entre les parties et l'identification de ces parties. L'élaboration d'un nouveau cadre pour les dérivés de gré à gré qui régule les transactions transfrontières semble très délicat à traiter et les possibles conflits et chevauchements de lois seront inévitables. Confrontés à des définitions divergentes de contreparties locales, les parties à une opération seront condamnées à un risque de qualification en vertu des règlements nationaux sur les dérivés de gré à gré. Une concertation pourrait être renforcée et la détermination de l'autorité compétente ainsi que les concepts de contreparties locales, succursales ou filiales pourraient être harmonisés.
Resumo:
L’utilisation de lentilles cornéennes peut servir à améliorer le profil d’administration d’un principe actif dans les yeux. Avec une efficacité d’administration de 5% par l’utilisation de gouttes, on comprend rapidement que l’administration oculaire doit être améliorée. Cette faible administration a donné naissance à plusieurs tentatives visant à fabriquer des lentilles cornéennes médicamentées. Cependant, à cause de multiples raisons, aucune de ces tentatives n’a actuellement été mise sur le marché. Nous proposons dans cette étude, une possible amélioration des systèmes établis par le développement d’une lentille cornéenne à base de 2-(hydroxyéthyle)méthacrylate (HEMA), dans laquelle des microgels, à base de poly N-isopropylacrylamide (pNIPAM) thermosensible encapsulant un principe actif, seront incorporé. Nous avons donc débuté par développer une méthode analytique sensible par HPCL-MS/MS capable de quantifier plusieurs molécules à la fois. La méthode résultante a été validée selon les différents critères de la FDA et l’ICH en démontrant des limites de quantifications et de détections suffisamment basses, autant dans des fluides simulés que dans les tissus d’yeux de lapins. La méthode a été validée pour sept médicaments ophtalmiques : Pilocarpine, lidocaïne, proparacaïne, atropine, acétonide de triamcinolone, timolol et prednisolone. Nous avons ensuite fait la synthèse des microgels chargés négativement à base de NIPAM et d’acide méthacrylique (MAA). Nous avons encapsulé une molécule modèle dans des particules ayant une taille entre 200 et 600 nm dépendant de la composition ainsi qu’un potentiel zêta variant en fonction de la température. L’encapsulation de la rhodamine 6G (R6G) dans les microgels a été possible jusqu’à un chargement (DL%) de 38%. L’utilisation des isothermes de Langmuir a permis de montrer que l’encapsulation était principalement le résultat d’interactions électrostatiques entre les MAA et la R6G. Des cinétiques de libérations ont été effectuées à partir d’hydrogels d’acrylamide chargés en microgels encapsulant la R6G. Il a été trouvé que la libération des hydrogels chargés en microgels s’effectuait majoritairement selon l’affinité au microgel et sur une période d’environ 4-24 heures. La libération à partir de ces systèmes a été comparée à des formules d’hydrogels contenant des liposomes ou des nanogels de chitosan. Ces trois derniers (liposomes, microgels et nanogels) ont présenté des résultats prometteurs pour différentes applications avec différents profils de libérations. Enfin, nous avons transposé le modèle développé avec les gels d’acrylamide pour fabriquer des lentilles de contact de 260 à 340 µm d’épaisseur à base de pHEMA contenant les microgels avec une molécule encapsulée devant être administrée dans les yeux. Nous avons modifié la composition de l’hydrogel en incorporant un polymère linéaire, la polyvinylpyrrolidone (PVP). L’obtention d’hydrogels partiellement interpénétrés améliore la rétention d’eau dans les lentilles cornéennes. L’encapsulation dans les microgels chargés négativement a donné de meilleurs rendements avec la lidocaïne et cette dernière a été libérée de la lentille de pHEMA en totalité en approximativement 2 heures qu’elle soit ou non encapsulée dans des microgels. Ainsi dans cette étude pilote, l’impact des microgels n’a pas pu être déterminé et, de ce fait, nécessitera des études approfondies sur la structure et les propriétés de la lentille qui a été développée. En utilisant des modèles de libération plus représentatifs de la physiologie de l’œil, nous pourrions conclure avec plus de certitude concernant l’efficacité d’un tel système d’administration et s’il est possible de l’optimiser.
Resumo:
Les informations sensorielles sont traitées dans le cortex par des réseaux de neurones co-activés qui forment des assemblées neuronales fonctionnelles. Le traitement visuel dans le cortex est régit par différents aspects des caractéristiques neuronales tels que l’aspect anatomique, électrophysiologique et moléculaire. Au sein du cortex visuel primaire, les neurones sont sélectifs à divers attributs des stimuli tels que l’orientation, la direction, le mouvement et la fréquence spatiale. Chacun de ces attributs conduit à une activité de décharge maximale pour une population neuronale spécifique. Les neurones du cortex visuel ont cependant la capacité de changer leur sélectivité en réponse à une exposition prolongée d’un stimulus approprié appelée apprentissage visuel ou adaptation visuelle à un stimulus non préférentiel. De ce fait, l’objectif principal de cette thèse est d’investiguer les mécanismes neuronaux qui régissent le traitement visuel durant une plasticité induite par adaptation chez des animaux adultes. Ces mécanismes sont traités sous différents aspects : la connectivité neuronale, la sélectivité neuronale, les propriétés électrophysiologiques des neurones et les effets des drogues (sérotonine et fluoxétine). Le modèle testé se base sur les colonnes d’orientation du cortex visuel primaire. La présente thèse est subdivisée en quatre principaux chapitres. Le premier chapitre (A) traite de la réorganisation du cortex visuel primaire suite à une plasticité induite par adaptation visuelle. Le second chapitre (B) examine la connectivité neuronale fonctionnelle en se basant sur des corrélations croisées entre paires neuronales ainsi que sur des corrélations d’activités de populations neuronales. Le troisième chapitre (C) met en liaison les aspects cités précédemment (les effets de l’adaptation visuelle et la connectivité fonctionnelle) aux propriétés électrophysiologiques des neurones (deux classes de neurones sont traitées : les neurones à décharge régulière et les neurones à décharge rapide ou burst). Enfin, le dernier chapitre (D) a pour objectif l’étude de l’effet du couplage de l’adaptation visuelle à l’administration de certaines drogues, notamment la sérotonine et la fluoxétine (inhibiteur sélectif de recapture de la sérotonine). Méthodes En utilisant des enregistrements extracellulaires d’activités neuronales dans le cortex visuel primaire (V1) combinés à un processus d’imagerie cérébrale optique intrinsèque, nous enregistrons l’activité de décharge de populations neuronales et nous examinons l’activité de neurones individuels extraite des signaux multi-unitaires. L’analyse de l’activité cérébrale se base sur différents algorithmes : la distinction des propriétés électrophysiologiques des neurones se fait par calcul de l’intervalle de temps entre la vallée et le pic maximal du potentiel d’action (largeur du potentiel d’action), la sélectivité des neurones est basée sur leur taux de décharge à différents stimuli, et la connectivité fonctionnelle utilise des calculs de corrélations croisées. L’utilisation des drogues se fait par administration locale sur la surface du cortex (après une craniotomie et une durotomie). Résultats et conclusions Dans le premier chapitre, nous démontrons la capacité des neurones à modifier leur sélectivité après une période d’adaptation visuelle à un stimulus particulier, ces changements aboutissent à une réorganisation des cartes corticales suivant un patron spécifique. Nous attribuons ce résultat à la flexibilité de groupes fonctionnels de neurones qui étaient longtemps considérés comme des unités anatomiques rigides. En effet, nous observons une restructuration extensive des domaines d’orientation dans le but de remodeler les colonnes d’orientation où chaque stimulus est représenté de façon égale. Ceci est d’autant plus confirmé dans le second chapitre où dans ce cas, les cartes de connectivité fonctionnelle sont investiguées. En accord avec les résultats énumérés précédemment, les cartes de connectivité montrent également une restructuration massive mais de façon intéressante, les neurones utilisent une stratégie de sommation afin de stabiliser leurs poids de connectivité totaux. Ces dynamiques de connectivité sont examinées dans le troisième chapitre en relation avec les propriétés électrophysiologiques des neurones. En effet, deux modes de décharge neuronale permettent la distinction entre deux classes neuronales. Leurs dynamiques de corrélations distinctes suggèrent que ces deux classes jouent des rôles clés différents dans l’encodage et l’intégration des stimuli visuels au sein d’une population neuronale. Enfin, dans le dernier chapitre, l’adaptation visuelle est combinée avec l’administration de certaines substances, notamment la sérotonine (neurotransmetteur) et la fluoxétine (inhibiteur sélectif de recapture de la sérotonine). Ces deux substances produisent un effet similaire en facilitant l’acquisition des stimuli imposés par adaptation. Lorsqu’un stimulus non optimal est présenté en présence de l’une des deux substances, nous observons une augmentation du taux de décharge des neurones en présentant ce stimulus. Nous présentons un modèle neuronal basé sur cette recherche afin d’expliquer les fluctuations du taux de décharge neuronale en présence ou en absence des drogues. Cette thèse présente de nouvelles perspectives quant à la compréhension de l’adaptation des neurones du cortex visuel primaire adulte dans le but de changer leur sélectivité dans un environnement d’apprentissage. Nous montrons qu’il y a un parfait équilibre entre leurs habiletés plastiques et leur dynamique d’homéostasie.
Resumo:
La traduction automatique statistique est un domaine très en demande et où les machines sont encore loin de produire des résultats de qualité humaine. La principale méthode utilisée est une traduction linéaire segment par segment d'une phrase, ce qui empêche de changer des parties de la phrase déjà traduites. La recherche pour ce mémoire se base sur l'approche utilisée dans Langlais, Patry et Gotti 2007, qui tente de corriger une traduction complétée en modifiant des segments suivant une fonction à optimiser. Dans un premier temps, l'exploration de nouveaux traits comme un modèle de langue inverse et un modèle de collocation amène une nouvelle dimension à la fonction à optimiser. Dans un second temps, l'utilisation de différentes métaheuristiques, comme les algorithmes gloutons et gloutons randomisés permet l'exploration plus en profondeur de l'espace de recherche et permet une plus grande amélioration de la fonction objectif.
Resumo:
La plupart des modèles en statistique classique repose sur une hypothèse sur la distribution des données ou sur une distribution sous-jacente aux données. La validité de cette hypothèse permet de faire de l’inférence, de construire des intervalles de confiance ou encore de tester la fiabilité du modèle. La problématique des tests d’ajustement vise à s’assurer de la conformité ou de la cohérence de l’hypothèse avec les données disponibles. Dans la présente thèse, nous proposons des tests d’ajustement à la loi normale dans le cadre des séries chronologiques univariées et vectorielles. Nous nous sommes limités à une classe de séries chronologiques linéaires, à savoir les modèles autorégressifs à moyenne mobile (ARMA ou VARMA dans le cas vectoriel). Dans un premier temps, au cas univarié, nous proposons une généralisation du travail de Ducharme et Lafaye de Micheaux (2004) dans le cas où la moyenne est inconnue et estimée. Nous avons estimé les paramètres par une méthode rarement utilisée dans la littérature et pourtant asymptotiquement efficace. En effet, nous avons rigoureusement montré que l’estimateur proposé par Brockwell et Davis (1991, section 10.8) converge presque sûrement vers la vraie valeur inconnue du paramètre. De plus, nous fournissons une preuve rigoureuse de l’inversibilité de la matrice des variances et des covariances de la statistique de test à partir de certaines propriétés d’algèbre linéaire. Le résultat s’applique aussi au cas où la moyenne est supposée connue et égale à zéro. Enfin, nous proposons une méthode de sélection de la dimension de la famille d’alternatives de type AIC, et nous étudions les propriétés asymptotiques de cette méthode. L’outil proposé ici est basé sur une famille spécifique de polynômes orthogonaux, à savoir les polynômes de Legendre. Dans un second temps, dans le cas vectoriel, nous proposons un test d’ajustement pour les modèles autorégressifs à moyenne mobile avec une paramétrisation structurée. La paramétrisation structurée permet de réduire le nombre élevé de paramètres dans ces modèles ou encore de tenir compte de certaines contraintes particulières. Ce projet inclut le cas standard d’absence de paramétrisation. Le test que nous proposons s’applique à une famille quelconque de fonctions orthogonales. Nous illustrons cela dans le cas particulier des polynômes de Legendre et d’Hermite. Dans le cas particulier des polynômes d’Hermite, nous montrons que le test obtenu est invariant aux transformations affines et qu’il est en fait une généralisation de nombreux tests existants dans la littérature. Ce projet peut être vu comme une généralisation du premier dans trois directions, notamment le passage de l’univarié au multivarié ; le choix d’une famille quelconque de fonctions orthogonales ; et enfin la possibilité de spécifier des relations ou des contraintes dans la formulation VARMA. Nous avons procédé dans chacun des projets à une étude de simulation afin d’évaluer le niveau et la puissance des tests proposés ainsi que de les comparer aux tests existants. De plus des applications aux données réelles sont fournies. Nous avons appliqué les tests à la prévision de la température moyenne annuelle du globe terrestre (univarié), ainsi qu’aux données relatives au marché du travail canadien (bivarié). Ces travaux ont été exposés à plusieurs congrès (voir par exemple Tagne, Duchesne et Lafaye de Micheaux (2013a, 2013b, 2014) pour plus de détails). Un article basé sur le premier projet est également soumis dans une revue avec comité de lecture (Voir Duchesne, Lafaye de Micheaux et Tagne (2016)).
Resumo:
Depuis une vingtaine d’années, le modèle cognitif basé sur les interprétations (Groupe de recherche sur la cognition dans le trouble obsessionnel compulsif [OCCWG], 1997, 2001, 2003, 2005) représente le modèle psychologique de l’étiologie et du maintien du TOC le plus étudié au plan empirique. Cependant, peu de recherches ont porté sur les deux postulats importants du modèle touchant respectivement le développement des croyances liées à l’obsessionnalité et la contribution des états affectifs au maintien des interprétations et des croyances (réactivité cognitive). L’objectif de cette thèse est de contribuer à la validation empirique de ces postulats. Fondé sur un devis corrélationnel dans un échantillon de participants mixte (participants troubles obsessionnels-compulsifs et participants non cliniques), le premier article étudie les liens entre les expériences de l’enfance et la présence de croyances obsessionnelles chez l’adulte. Deux modèles alternatifs sont comparés qui représentent d’une part un lien spécifique, et d’autre part un lien non spécifique entre les expériences de l’enfance et les croyances obsessionnelles adultes. Les résultats suggèrent la présence à la fois de relations spécifiques et non spécifiques entre les expériences de l’enfance et les croyances adultes. Les expériences de l’enfance et les domaines de croyance obsessionnels qui montrent des liens spécifiques sont ceux relatifs à la responsabilité, à la perception du danger, et au perfectionnisme. En contrepartie, les expériences de l’enfance relatives à la perception de danger et dans une moindre mesure la sociotropie, apparaissent étroitement liés à la plupart des domaines de croyances adultes (intolérance à l’incertitude, surestimation du danger, importance et contrôle des pensées). Dans la seconde étude, nous nous intéressons à la mesure et l’analyse longitudinales de la réactivité cognitive telle qu’elle s’exprime dans l’environnement naturel de huit participants troubles obsessionnels-compulsifs de type ruminateur. Par le biais de huit protocoles à cas uniques intensifs, l’analyse de contingence entre les scores quotidiens d’humeur (4 états émotionnels cotés par participant) et d’interprétations (une interprétation idiographique des intrusions par participant) permet d’établir une mesure de l’importance de la réactivité cognitive chez chaque participant. Ces résultats sont ensuite analysés du point de vue des postulats principaux de deux modèles spécifiques de la réactivité cognitive (modèle de l’Infusion de l’affect [Forgas, 2008] et modèle de l’Humeur comme intrant [Meeten & Davey, 2011]. Ainsi, les analyses intra-individuelles répétées trans-comportements) et interindividuelles (trans-participants) permettent d’illustrer le rôle proximal déterminant des stratégies de traitement de l’information (traitement systématique; traitement superficiel; traitement altéré) employées par les participants. En résumé, les résultats obtenus dans ces deux études fournissent des données utiles à la poursuite de la validation du modèle des interprétations du TOC. Dans la première étude, l’identification de liens spécifiques entre les EE et les croyances obsessionnelles soutient la séquence étiologique postulée, alors que l’identification de liens non spécifiques suggère que d’autres trajectoires étiologiques peuvent être pertinentes. Dans la seconde étude, l’analyse longitudinale et naturaliste des covariations humeur – interprétations se révèle d’abord féconde à identifier les phénomènes de réactivité cognitive postulés dans le modèle des interprétations. Ensuite, en conformité aux modèles intégrés de la réactivité cognitive, l’analyse des liens entre cette réactivité et les stratégies privilégiées de neutralisation des participants permet d’identifier le rôle clé des différentes stratégies de traitement de l’information dans la réactivité cognitive.
Resumo:
Contiene: T. 1 - T. 2.
Resumo:
Mode of access: Internet.
Resumo:
Mode of access: Internet.
Resumo:
Mode of access: Internet.
Resumo:
Mode of access: Internet.
Resumo:
Mode of access: Internet.
Resumo:
Mode of access: Internet.