46 resultados para Libérations conditionnelles


Relevância:

10.00% 10.00%

Publicador:

Resumo:

La majorité des études qui ont examiné les effets respiratoires d’une exposition de courte durée à la pollution de l’air ont été réalisées en milieu urbain. En milieu pollué par des sources industrielles, la nature de l’exposition diffère de celle en milieu urbain. Le premier objectif de ce mémoire visait une recension des études traitant de l’association entre les effets respiratoires chez l’enfant et l’exposition aux émissions de polluants industriels. La majorité des études suggèrent que l’exposition aux émissions de polluants émis par des industries est associée à un accroissement des problèmes respiratoires. Dans ces études, l’effet de l’exposition de courte durée a rarement été étudié. L’autre objectif du mémoire était d’évaluer l’association entre une exposition journalière aux émissions de pollution atmosphérique d’un complexe industriel (deux fonderies et une usine de raffinage de l’alumine) du Saguenay, Québec, et les hospitalisations pour problèmes respiratoires des enfants de 0 à 4 ans vivant près de celles-ci (<7.5 km), à l’aide d’une étude épidémiologique de type cas-croisé. Le pourcentage d’heures où le domicile de l’enfant était sous les vents provenant de la direction du complexe industriel et les maxima et moyennes journalières des concentrations de dioxyde de soufre (SO2) et de particules fines (PM2.5) ont été recueillis du 1er janvier 2001 au 31 décembre 2010 afin d’estimer l’exposition. Des régressions logistiques conditionnelles ont été employées pour estimer les rapports de cotes (OR) et les intervalles de confiance à 95%. Les hospitalisations pour asthme et bronchiolite chez les jeunes enfants étaient associées à l’augmentation de l’exposition journalière aux émissions, estimée par le pourcentage d’heures sous les vents. Les résultats de ce mémoire suggèrent que l’exposition aux émissions industrielles de polluants de l’air est associée à des effets respiratoires chez les enfants.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Les questions abordées dans les deux premiers articles de ma thèse cherchent à comprendre les facteurs économiques qui affectent la structure à terme des taux d'intérêt et la prime de risque. Je construis des modèles non linéaires d'équilibre général en y intégrant des obligations de différentes échéances. Spécifiquement, le premier article a pour objectif de comprendre la relation entre les facteurs macroéconomiques et le niveau de prime de risque dans un cadre Néo-keynésien d'équilibre général avec incertitude. L'incertitude dans le modèle provient de trois sources : les chocs de productivité, les chocs monétaires et les chocs de préférences. Le modèle comporte deux types de rigidités réelles à savoir la formation des habitudes dans les préférences et les coûts d'ajustement du stock de capital. Le modèle est résolu par la méthode des perturbations à l'ordre deux et calibré à l'économie américaine. Puisque la prime de risque est par nature une compensation pour le risque, l'approximation d'ordre deux implique que la prime de risque est une combinaison linéaire des volatilités des trois chocs. Les résultats montrent qu'avec les paramètres calibrés, les chocs réels (productivité et préférences) jouent un rôle plus important dans la détermination du niveau de la prime de risque relativement aux chocs monétaires. Je montre que contrairement aux travaux précédents (dans lesquels le capital de production est fixe), l'effet du paramètre de la formation des habitudes sur la prime de risque dépend du degré des coûts d'ajustement du capital. Lorsque les coûts d'ajustement du capital sont élevés au point que le stock de capital est fixe à l'équilibre, une augmentation du paramètre de formation des habitudes entraine une augmentation de la prime de risque. Par contre, lorsque les agents peuvent librement ajuster le stock de capital sans coûts, l'effet du paramètre de la formation des habitudes sur la prime de risque est négligeable. Ce résultat s'explique par le fait que lorsque le stock de capital peut être ajusté sans coûts, cela ouvre un canal additionnel de lissage de consommation pour les agents. Par conséquent, l'effet de la formation des habitudes sur la prime de risque est amoindri. En outre, les résultats montrent que la façon dont la banque centrale conduit sa politique monétaire a un effet sur la prime de risque. Plus la banque centrale est agressive vis-à-vis de l'inflation, plus la prime de risque diminue et vice versa. Cela est due au fait que lorsque la banque centrale combat l'inflation cela entraine une baisse de la variance de l'inflation. Par suite, la prime de risque due au risque d'inflation diminue. Dans le deuxième article, je fais une extension du premier article en utilisant des préférences récursives de type Epstein -- Zin et en permettant aux volatilités conditionnelles des chocs de varier avec le temps. L'emploi de ce cadre est motivé par deux raisons. D'abord des études récentes (Doh, 2010, Rudebusch and Swanson, 2012) ont montré que ces préférences sont appropriées pour l'analyse du prix des actifs dans les modèles d'équilibre général. Ensuite, l'hétéroscedasticité est une caractéristique courante des données économiques et financières. Cela implique que contrairement au premier article, l'incertitude varie dans le temps. Le cadre dans cet article est donc plus général et plus réaliste que celui du premier article. L'objectif principal de cet article est d'examiner l'impact des chocs de volatilités conditionnelles sur le niveau et la dynamique des taux d'intérêt et de la prime de risque. Puisque la prime de risque est constante a l'approximation d'ordre deux, le modèle est résolu par la méthode des perturbations avec une approximation d'ordre trois. Ainsi on obtient une prime de risque qui varie dans le temps. L'avantage d'introduire des chocs de volatilités conditionnelles est que cela induit des variables d'état supplémentaires qui apportent une contribution additionnelle à la dynamique de la prime de risque. Je montre que l'approximation d'ordre trois implique que les primes de risque ont une représentation de type ARCH-M (Autoregressive Conditional Heteroscedasticty in Mean) comme celui introduit par Engle, Lilien et Robins (1987). La différence est que dans ce modèle les paramètres sont structurels et les volatilités sont des volatilités conditionnelles de chocs économiques et non celles des variables elles-mêmes. J'estime les paramètres du modèle par la méthode des moments simulés (SMM) en utilisant des données de l'économie américaine. Les résultats de l'estimation montrent qu'il y a une évidence de volatilité stochastique dans les trois chocs. De plus, la contribution des volatilités conditionnelles des chocs au niveau et à la dynamique de la prime de risque est significative. En particulier, les effets des volatilités conditionnelles des chocs de productivité et de préférences sont significatifs. La volatilité conditionnelle du choc de productivité contribue positivement aux moyennes et aux écart-types des primes de risque. Ces contributions varient avec la maturité des bonds. La volatilité conditionnelle du choc de préférences quant à elle contribue négativement aux moyennes et positivement aux variances des primes de risque. Quant au choc de volatilité de la politique monétaire, son impact sur les primes de risque est négligeable. Le troisième article (coécrit avec Eric Schaling, Alain Kabundi, révisé et resoumis au journal of Economic Modelling) traite de l'hétérogénéité dans la formation des attentes d'inflation de divers groupes économiques et de leur impact sur la politique monétaire en Afrique du sud. La question principale est d'examiner si différents groupes d'agents économiques forment leurs attentes d'inflation de la même façon et s'ils perçoivent de la même façon la politique monétaire de la banque centrale (South African Reserve Bank). Ainsi on spécifie un modèle de prédiction d'inflation qui nous permet de tester l'arrimage des attentes d'inflation à la bande d'inflation cible (3% - 6%) de la banque centrale. Les données utilisées sont des données d'enquête réalisée par la banque centrale auprès de trois groupes d'agents : les analystes financiers, les firmes et les syndicats. On exploite donc la structure de panel des données pour tester l'hétérogénéité dans les attentes d'inflation et déduire leur perception de la politique monétaire. Les résultats montrent qu'il y a évidence d'hétérogénéité dans la manière dont les différents groupes forment leurs attentes. Les attentes des analystes financiers sont arrimées à la bande d'inflation cible alors que celles des firmes et des syndicats ne sont pas arrimées. En effet, les firmes et les syndicats accordent un poids significatif à l'inflation retardée d'une période et leurs prédictions varient avec l'inflation réalisée (retardée). Ce qui dénote un manque de crédibilité parfaite de la banque centrale au vu de ces agents.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Les nanotechnologies appliquées aux sciences pharmaceutiques ont pour but d’améliorer l’administration de molécules actives par l’intermédiaire de transporteurs nanométriques. Parmi les différents types de véhicules proposés pour atteindre ce but, on retrouve les nanoparticules polymériques (NP) constituées de copolymères “en bloc”. Ces copolymères permettent à la fois l’encapsulation de molécules actives et confèrent à la particule certaines propriétés de surface (dont l’hydrophilicité) nécessaires à ses interactions avec les milieux biologiques. L’architecture retenue pour ces copolymères est une structure constituée le plus fréquemment de blocs hydrophiles de poly(éthylène glycol) (PEG) associés de façon linéaire à des blocs hydrophobes de type polyesters. Le PEG est le polymère de choix pour conférer une couronne hydrophile aux NPs et son l’efficacité est directement liée à son organisation et sa densité de surface. Néanmoins, malgré les succès limités en clinique de ces copolymères linéaires, peu de travaux se sont attardés à explorer les effets sur la structure des NPs d’architectures alternatives, tels que les copolymères en peigne ou en brosse. Durant ce travail, plusieurs stratégies ont été mises au point pour la synthèse de copolymères en peigne, possédant un squelette polymérique polyesters-co-éther et des chaines de PEG liées sur les groupes pendants disponibles (groupement hydroxyle ou alcyne). Dans la première partie de ce travail, des réactions d’estérification par acylation et de couplage sur des groupes pendants alcool ont permis le greffage de chaîne de PEG. Cette méthode génère des copolymères en peigne (PEG-g-PLA) possédant de 5 à 50% en poids de PEG, en faisant varier le nombre de chaînes branchées sur un squelette de poly(lactique) (PLA). Les propriétés structurales des NPs produites ont été étudiées par DLS, mesure de charge et MET. Une transition critique se situant autour de 15% de PEG (poids/poids) est observée avec un changement de morphologie, d’une particule solide à une particule molle (“nanoagrégat polymére”). La méthode de greffage ainsi que l’addition probable de chaine de PEG en bout de chaîne principale semblent également avoir un rôle dans les changements observés. L’organisation des chaînes de PEG-g-PLA à la surface a été étudiée par RMN et XPS, méthodes permettant de quantifier la densité de surface en chaînes de PEG. Ainsi deux propriétés clés que sont la résistance à l’agrégation en conditions saline ainsi que la résistance à la liaison aux protéines (étudiée par isothermes d’adsorption et microcalorimétrie) ont été reliées à la densité de surface de PEG et à l’architecture des polymères. Dans une seconde partie de ce travail, le greffage des chaînes de PEG a été réalisé de façon directe par cyclo-adition catalysée par le cuivre de mPEG-N3 sur les groupes pendants alcyne. Cette nouvelle stratégie a été pensée dans le but de comprendre la contribution possible des chaines de PEG greffées à l’extrémité de la chaine de PLA. Cette librairie de PEG-g-PLA, en plus d’être composée de PEG-g-PLA avec différentes densités de greffage, comporte des PEG-g-PLA avec des PEG de différent poids moléculaire (750, 2000 et 5000). Les chaines de PEG sont seulement greffées sur les groupes pendants. Les NPs ont été produites par différentes méthodes de nanoprécipitation, incluant la nanoprécipitation « flash » et une méthode en microfluidique. Plusieurs variables de formulation telles que la concentration du polymère et la vitesse de mélange ont été étudiées afin d’observer leur effet sur les caractéristiques structurales et de surface des NPs. Les tailles et les potentiels de charges sont peu affectés par le contenu en PEG (% poids/poids) et la longueur des chaînes de PEG. Les images de MET montrent des objets sphériques solides et l'on n’observe pas d’objets de type agrégat polymériques, malgré des contenus en PEG comparable à la première bibliothèque de polymère. Une explication possible est l’absence sur ces copolymères en peigne de chaine de PEG greffée en bout de la chaîne principale. Comme attendu, les tailles diminuent avec la concentration du polymère dans la phase organique et avec la diminution du temps de mélange des deux phases, pour les différentes méthodes de préparation. Finalement, la densité de surface des chaînes de PEG a été quantifiée par RMN du proton et XPS et ne dépendent pas de la méthode de préparation. Dans la troisième partie de ce travail, nous avons étudié le rôle de l’architecture du polymère sur les propriétés d’encapsulation et de libération de la curcumine. La curcumine a été choisie comme modèle dans le but de développer une plateforme de livraison de molécules actives pour traiter les maladies du système nerveux central impliquant le stress oxydatif. Les NPs chargées en curcumine, montrent la même transition de taille et de morphologie lorsque le contenu en PEG dépasse 15% (poids/poids). Le taux de chargement en molécule active, l’efficacité de changement et les cinétiques de libérations ainsi que les coefficients de diffusion de la curcumine montrent une dépendance à l’architecture des polymères. Les NPs ne présentent pas de toxicité et n’induisent pas de stress oxydatif lorsque testés in vitro sur une lignée cellulaire neuronale. En revanche, les NPs chargées en curcumine préviennent le stress oxydatif induit dans ces cellules neuronales. La magnitude de cet effet est reliée à l’architecture du polymère et à l’organisation de la NP. En résumé, ce travail a permis de mettre en évidence quelques propriétés intéressantes des copolymères en peigne et la relation intime entre l’architecture des polymères et les propriétés physico-chimiques des NPs. De plus les résultats obtenus permettent de proposer de nouvelles approches pour le design des nanotransporteurs polymériques de molécules actives.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

This paper presents the second part in our study of the global structure of the planar phase space of the planetary three-body problem, when both planets lie in the vicinity of a 2/1 mean-motion resonance. While Paper I was devoted to cases where the outer planet is the more massive body, the present work is devoted to the cases where the more massive body is the inner planet. As before, outside the well-known Apsidal Corotation Resonances (ACR), the phase space shows a complex picture marked by the presence of several distinct regimes of resonant and non-resonant motion, crossed by families of periodic orbits and separated by chaotic zones. When the chosen values of the integrals of motion lead to symmetric ACR, the global dynamics are generally similar to the structure presented in Paper I. However, for asymmetric ACR the resonant phase space is strikingly different and shows a galore of distinct dynamical states. This structure is shown with the help of dynamical maps constructed on two different representative planes, one centred on the unstable symmetric ACR and the other on the stable asymmetric equilibrium solution. Although the study described in the work may be applied to any mass ratio, we present a detailed analysis for mass values similar to the Jupiter-Saturn case. Results give a global view of the different dynamical states available to resonant planets with these characteristics. Some of these dynamical paths could have marked the evolution of the giant planets of our Solar system, assuming they suffered a temporary capture in the 2/1 resonance during the latest stages of the formation of our Solar system.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

In this work we study the basic aspects concerning the stability of the outer satellites of Jupiter. Including the effects of the four giant planets and the Sun we study a large grid of initial conditions. Some important regions where satellites cannot survive are found. Basically these regions are due to Kozai and other resonances. We give an analytical explanation for the libration of the pericenters (ω) over bar - (ω) over bar (J). Another different center is also found. The period and amplitude of these librations are quite sensitive to initial conditions, so that precise observational data are needed for Pasiphae and Sinope. The effect of Jupiter's mass variation is briefly presented. This effect can be responsible for satellite capture and also for locking (ω) over bar - (ω) over bar (J) in temporary libration.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

We present a detailed low-temperature investigation of the statics and dynamics of the anions and methyl groups in the organic conductors (TMTSF) 2PF6 and (TMTSF)2AsF6 (TMTSF: tetramethyl-tetraselenafulvalene). The 4 K neutron-scattering structure refinement of the fully deuterated (TMTSF)2PF6-D12 salt allows locating precisely the methyl groups at 4 K. This structure is compared to the one of the fully hydrogenated (TMTSF)2PF6-H12 salt previously determined at the same temperature. Surprisingly, it is found that deuteration corresponds to the application of a negative pressure of 5×102 MPa to the H12 salt. Accurate measurements of the Bragg intensity show anomalous thermal variations at low temperature both in the deuterated PF 6 and AsF6 salts. Two different thermal behaviors have been distinguished. Small Bragg-angle measurements reflect the presence of low-frequency modes at characteristic energies θE = 8.3 K and θE = 6.7 K for the PF6-D12 and AsF6-D12 salts, respectively. These modes correspond to the low-temperature methyl group motion. Large Bragg-angle measurements evidence an unexpected structural change around 55 K, which probably corresponds to the linkage of the anions to the methyl groups via the formation of F...D-CD2 bonds observed in the 4 K structural refinement. Finally we show that the thermal expansion coefficient of (TMTSF)2PF6 is dominated by the librational motion of the PF6 units. We quantitatively analyze the low-temperature variation of the lattice expansion via the contribution of Einstein oscillators, which allows us to determine for the first time the characteristic frequency of the PF6 librations: θE ≈ 50 K and θE = 76 K for the PF6-D12 and PF6-H12 salts, respectively. © 2013 American Physical Society.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Among the scientific objectives addressed by the Radio Science Experiment hosted on board the ESA mission BepiColombo is the retrieval of the rotational state of planet Mercury. In fact, the estimation of the obliquity and the librations amplitude were proven to be fundamental for constraining the interior composition of Mercury. This is accomplished by the Mercury Orbiter Radio science Experiment (MORE) via a strict interaction among different payloads thus making the experiment particularly challenging. The underlying idea consists in capturing images of the same landmark on the surface of the planet in different epochs in order to observe a displacement of the identified features with respect to a nominal rotation which allows to estimate the rotational parameters. Observations must be planned accurately in order to obtain image pairs carrying the highest information content for the following estimation process. This is not a trivial task especially in light of the several dynamical constraints involved. Another delicate issue is represented by the pattern matching process between image pairs for which the lowest correlation errors are desired. The research activity was conducted in the frame of the MORE rotation experiment and addressed the design and implementation of an end-to-end simulator of the experiment with the final objective of establishing an optimal science planning of the observations. In the thesis, the implementation of the singular modules forming the simulator is illustrated along with the simulations performed. The results obtained from the preliminary release of the optimization algorithm are finally presented although the software implemented is only at a preliminary release and will be improved and refined in the future also taking into account the developments of the mission.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

L’utilisation de lentilles cornéennes peut servir à améliorer le profil d’administration d’un principe actif dans les yeux. Avec une efficacité d’administration de 5% par l’utilisation de gouttes, on comprend rapidement que l’administration oculaire doit être améliorée. Cette faible administration a donné naissance à plusieurs tentatives visant à fabriquer des lentilles cornéennes médicamentées. Cependant, à cause de multiples raisons, aucune de ces tentatives n’a actuellement été mise sur le marché. Nous proposons dans cette étude, une possible amélioration des systèmes établis par le développement d’une lentille cornéenne à base de 2-(hydroxyéthyle)méthacrylate (HEMA), dans laquelle des microgels, à base de poly N-isopropylacrylamide (pNIPAM) thermosensible encapsulant un principe actif, seront incorporé. Nous avons donc débuté par développer une méthode analytique sensible par HPCL-MS/MS capable de quantifier plusieurs molécules à la fois. La méthode résultante a été validée selon les différents critères de la FDA et l’ICH en démontrant des limites de quantifications et de détections suffisamment basses, autant dans des fluides simulés que dans les tissus d’yeux de lapins. La méthode a été validée pour sept médicaments ophtalmiques : Pilocarpine, lidocaïne, proparacaïne, atropine, acétonide de triamcinolone, timolol et prednisolone. Nous avons ensuite fait la synthèse des microgels chargés négativement à base de NIPAM et d’acide méthacrylique (MAA). Nous avons encapsulé une molécule modèle dans des particules ayant une taille entre 200 et 600 nm dépendant de la composition ainsi qu’un potentiel zêta variant en fonction de la température. L’encapsulation de la rhodamine 6G (R6G) dans les microgels a été possible jusqu’à un chargement (DL%) de 38%. L’utilisation des isothermes de Langmuir a permis de montrer que l’encapsulation était principalement le résultat d’interactions électrostatiques entre les MAA et la R6G. Des cinétiques de libérations ont été effectuées à partir d’hydrogels d’acrylamide chargés en microgels encapsulant la R6G. Il a été trouvé que la libération des hydrogels chargés en microgels s’effectuait majoritairement selon l’affinité au microgel et sur une période d’environ 4-24 heures. La libération à partir de ces systèmes a été comparée à des formules d’hydrogels contenant des liposomes ou des nanogels de chitosan. Ces trois derniers (liposomes, microgels et nanogels) ont présenté des résultats prometteurs pour différentes applications avec différents profils de libérations. Enfin, nous avons transposé le modèle développé avec les gels d’acrylamide pour fabriquer des lentilles de contact de 260 à 340 µm d’épaisseur à base de pHEMA contenant les microgels avec une molécule encapsulée devant être administrée dans les yeux. Nous avons modifié la composition de l’hydrogel en incorporant un polymère linéaire, la polyvinylpyrrolidone (PVP). L’obtention d’hydrogels partiellement interpénétrés améliore la rétention d’eau dans les lentilles cornéennes. L’encapsulation dans les microgels chargés négativement a donné de meilleurs rendements avec la lidocaïne et cette dernière a été libérée de la lentille de pHEMA en totalité en approximativement 2 heures qu’elle soit ou non encapsulée dans des microgels. Ainsi dans cette étude pilote, l’impact des microgels n’a pas pu être déterminé et, de ce fait, nécessitera des études approfondies sur la structure et les propriétés de la lentille qui a été développée. En utilisant des modèles de libération plus représentatifs de la physiologie de l’œil, nous pourrions conclure avec plus de certitude concernant l’efficacité d’un tel système d’administration et s’il est possible de l’optimiser.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

L’utilisation de lentilles cornéennes peut servir à améliorer le profil d’administration d’un principe actif dans les yeux. Avec une efficacité d’administration de 5% par l’utilisation de gouttes, on comprend rapidement que l’administration oculaire doit être améliorée. Cette faible administration a donné naissance à plusieurs tentatives visant à fabriquer des lentilles cornéennes médicamentées. Cependant, à cause de multiples raisons, aucune de ces tentatives n’a actuellement été mise sur le marché. Nous proposons dans cette étude, une possible amélioration des systèmes établis par le développement d’une lentille cornéenne à base de 2-(hydroxyéthyle)méthacrylate (HEMA), dans laquelle des microgels, à base de poly N-isopropylacrylamide (pNIPAM) thermosensible encapsulant un principe actif, seront incorporé. Nous avons donc débuté par développer une méthode analytique sensible par HPCL-MS/MS capable de quantifier plusieurs molécules à la fois. La méthode résultante a été validée selon les différents critères de la FDA et l’ICH en démontrant des limites de quantifications et de détections suffisamment basses, autant dans des fluides simulés que dans les tissus d’yeux de lapins. La méthode a été validée pour sept médicaments ophtalmiques : Pilocarpine, lidocaïne, proparacaïne, atropine, acétonide de triamcinolone, timolol et prednisolone. Nous avons ensuite fait la synthèse des microgels chargés négativement à base de NIPAM et d’acide méthacrylique (MAA). Nous avons encapsulé une molécule modèle dans des particules ayant une taille entre 200 et 600 nm dépendant de la composition ainsi qu’un potentiel zêta variant en fonction de la température. L’encapsulation de la rhodamine 6G (R6G) dans les microgels a été possible jusqu’à un chargement (DL%) de 38%. L’utilisation des isothermes de Langmuir a permis de montrer que l’encapsulation était principalement le résultat d’interactions électrostatiques entre les MAA et la R6G. Des cinétiques de libérations ont été effectuées à partir d’hydrogels d’acrylamide chargés en microgels encapsulant la R6G. Il a été trouvé que la libération des hydrogels chargés en microgels s’effectuait majoritairement selon l’affinité au microgel et sur une période d’environ 4-24 heures. La libération à partir de ces systèmes a été comparée à des formules d’hydrogels contenant des liposomes ou des nanogels de chitosan. Ces trois derniers (liposomes, microgels et nanogels) ont présenté des résultats prometteurs pour différentes applications avec différents profils de libérations. Enfin, nous avons transposé le modèle développé avec les gels d’acrylamide pour fabriquer des lentilles de contact de 260 à 340 µm d’épaisseur à base de pHEMA contenant les microgels avec une molécule encapsulée devant être administrée dans les yeux. Nous avons modifié la composition de l’hydrogel en incorporant un polymère linéaire, la polyvinylpyrrolidone (PVP). L’obtention d’hydrogels partiellement interpénétrés améliore la rétention d’eau dans les lentilles cornéennes. L’encapsulation dans les microgels chargés négativement a donné de meilleurs rendements avec la lidocaïne et cette dernière a été libérée de la lentille de pHEMA en totalité en approximativement 2 heures qu’elle soit ou non encapsulée dans des microgels. Ainsi dans cette étude pilote, l’impact des microgels n’a pas pu être déterminé et, de ce fait, nécessitera des études approfondies sur la structure et les propriétés de la lentille qui a été développée. En utilisant des modèles de libération plus représentatifs de la physiologie de l’œil, nous pourrions conclure avec plus de certitude concernant l’efficacité d’un tel système d’administration et s’il est possible de l’optimiser.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Thèse numérisée par la Direction des bibliothèques de l'Université de Montréal.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Mémoire numérisé par la Direction des bibliothèques de l'Université de Montréal.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Thèse numérisée par la Direction des bibliothèques de l'Université de Montréal.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Mémoire numérisé par la Direction des bibliothèques de l'Université de Montréal.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Le programme Techniques de design d’intérieur fait partie d’un département intégrant trois autres programmes. Cette situation permet au Cégep de Rivière-du-Loup d’offrir certains cours en tronc commun. Ainsi, les cours de dessin ont souvent été donnés par des enseignantes et des enseignants provenant surtout des Arts visuels. Dès lors, certains contenus n’étaient pas pertinents pour les besoins professionnels du design d’intérieur. Depuis 2014, les plans-cadres des cours de dessin sont réécrits et le programme de Design d’intérieur s’est réapproprié ce contenu. Pour enseigner les cours de dessin propres au design d’intérieur, le personnel enseignant doit maintenant développer le matériel pédagogique adapté à cette situation professionnelle. Ces circonstances nous ont motivés à vouloir produire ce matériel pédagogique en suivant les balises de cadres de référence reconnus. Nous avons établi que l’enseignement du dessin nécessitait de construire trois types de connaissances, soit les connaissances déclaratives, procédurales et conditionnelles. À partir de ce constat, nous avons recensé les stratégies pédagogiques utilisées dans le réseau collégial qui permettaient la construction de ces types de connaissances. Nous avons conclu que les étapes de l’enseignement explicite correspondaient précisément aux objectifs fixés par notre recherche et que les trois phases de cette méthode répondaient à notre besoin. Cette recherche de nature qualitative utilise la méthodologie proposée par Paillé (2007), puisque les étapes proposées correspondent mieux à la démarche recherchée. Finalement, nous avons procédé à la production du matériel pédagogique en suivant les théories cognitivistes et les étapes de l’enseignement explicite et nous considérons que le matériel produit respecte les théories et stratégies pédagogiques scientifiquement reconnues; ce qui en fait un matériel répondant aux objectifs que nous nous étions fixés.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Si on considère l'atteinte de l'autonomie comme étant un cheminement progressif, l'enseignante ou l'enseignant doit concevoir des stratégies d'apprentissage dans l'optique que ses interventions auprès des élèves deviennent de moins en moins fréquentes. On permet ainsi à ces derniers de prendre davantage le contrôle de leurs apprentissages et on réduit leur dépendance envers l'enseignant. Cette recherche porte sur le développement de l'autonomie dans l'utilisation des logiciels et présente une méthode d'enseignement sur l'utilisation de la fonction "Aide" des logiciels qui donne à l'élève des stratégies lui permettant d'être l'agent de son propre développement. De quelle manière pouvons-nous amener l'élève à utiliser l'"Aide" des logiciels, de façon stratégique, lorsqu'il doit se débrouiller par lui-même? La démarche de résolution de problèmes peut-elle lui être utile? Quelles sont les connaissances susceptibles de le mener graduellement vers la réussite et de le guider progressivement vers l'autonomie? Autant de questions auxquelles la recherche s'intéresse. Nous avons d'abord élaboré une stratégie d'enseignement, construit des instruments pour soutenir la démarche et conçu un modèle d'utilisation de la stratégie. Nous l'avons ensuite validée, par sa mise à l'essai auprès d'un groupe de neuf élèves et nous en avons, enfin, évalué les résultats. Différents instruments tels que grilles d'observation, questionnaires d'entrevue, fiches d'expérimentation, procéduriers et documents réalisés par les élèves ont permis de recueillir des données qui ont servi à l'évaluation de la stratégie. L'analyse de ces données révèle que la performance des élèves pour l'exécution des tâches s'est nettement améliorée après qu'on leur ait enseigné à utiliser la fonction "Aide" et révèle, également, qu'ils l'utilisent de façon plus adéquate. D'autres analyses confirment que le fait d'organiser une stratégie d'enseignement en fonction des catégories de connaissances (déclaratives, procédurales et conditionnelles) est un moyen de favoriser un meilleur engagement cognitif des élèves dans leurs apprentissages. La résolution de problèmes, démarche intégrée à la fiche d'expérimentation utilisée par ces derniers, a fourni un cadre pour utiliser leurs connaissances et préciser leurs stratégies. Les résultats obtenus permettent d'affirmer que les objectifs de la recherche ont été atteints. La mise en place d'activités complexes et variées a permis la construction du savoir stratégique. La démarche de résolution de problèmes a favorisé la réutilisation des connaissances dans différents contextes. Les modèles cognitiviste et constructiviste dont s'inspire la stratégie d'enseignement, ont incité les élèves à recourir à la fonction "Aide" ainsi qu'à leurs connaissances antérieures et à les associer à des contextes d'action où ils ont transféré leurs apprentissages de façon plus autonome. Enseigner à utiliser la fonction "Aide" des logiciels est une pratique qui devrait être intégrée dans les activités pédagogiques de toute enseignante ou enseignant désireux de développer l'autonomie de ses élèves dans l'utilisation de nouveaux logiciels. Cela doit, cependant, résulter d'une démarche structurée incluant des instruments élaborés de manière à induire chez les élèves, de façon progressive, un comportement les menant vers l'autonomie souhaitée.