566 resultados para Systèmes differentiels linéaires


Relevância:

20.00% 20.00%

Publicador:

Resumo:

Un résumé en anglais est également disponible.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

Un résumé en anglais est également disponible.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

Ce mémoire décrit et analyse différents types de systèmes d'échange de droits d'émission utilisés dans le cadre de politiques de gestion de la pollution atmosphérique. L'objectif premier est de répertorier des enjeux juridiques étant liés à l'efficacité de ces systèmes. Dans un premier temps, nous nous attardons à la structure et aux mécanismes internes des systèmes d'échange de droits d'émission. Tout d'abord, nous soulignons le fondement théorique de ce type de système. Nous évaluons par la suite la structure et certains litiges liés au système d'échange américain dans le cadre des émissions de dioxyde de soufre. Dans un deuxième temps, nous continuons la description de systèmes en nous attardant plus spécifiquement aux interactions entre les systèmes d'échange de droits d'émission et les autres politiques et règlementations environnementales (incluant d'autres systèmes d'échange d'émission) visant la même problématique environnementale.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

Un fichier intitulé Charbonneau_Nathalie_2008_AnimationAnnexeT accompagne la thèse. Il contient une séquence animée démontrant le type de parcours pouvant être effectué au sein des environnements numériques développés. Il s'agit d'un fichier .wmv qui a été compressé.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

Avec le développement exponentiel de l'Internet et son corollaire l'expansion du commerce en ligne, le sort de la protection du cyberconsommateur devient un sujet préoccupant en ce 21ième siècle. En effet, dans ce monde virtuel où l'on emploie des méthodes et technologies nouvelles et plus encore des clauses abusives dans les contrats unilatéraux, s'installe indubitablement un sentiment de méfiance entre le cyberconsommateur et le cybercommerçant. Pour rétablir cette confiance et favoriser le commerce par Internet, des lois nationales, internationales et des normes communautaires ont été adoptées aux fins de l'encadrement rigoureux du processus contractuel. Toutefois, en raison de la présence fréquente d'éléments d'extranéité dans les contrats de consommation en ligne, la question fondamentale qui vient tout naturellement à l'esprit de tous ceux qui entreprennent des études aujourd'hui, en la matière, est celle de savoir si les règles classiques de droit international privé sont dépassées par le développement trop rapide de ce type de commerce ou si au contraire elles y sont adaptées. On pourrait en outre se demander si l'encadrement juridique offert au cyberconsommateur est à même de lui procurer le même niveau de protection dont il bénéficie dans le commerce traditionnel. La présente étude tente d'apporter certains éléments de réponse en analysant dans un premier temps, le droit substantiel interne de protection du consommateur dans les systèmes juridiques européen, français, canadien et québécois en vu de scruter des zones de conflits susceptibles d'exister dans le cycle de vie de ce contrat. Dans la seconde partie, elle démontre que les méthodes classiques de résolution des conflits de juridiction et des conflits de lois en droit international privé, bien que nécessitant des adaptations, sont effectivement applicables au contexte de l'internet et ce, dans l'objectif privilégié de la protection du cyberconsommateur. Le bilan de l'analyse et de l'appréciation des critères de ces règles de conflits nous conduiront à l'examen des nouvelles mesures qui s'imposent.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

Selon le modèle classique, le signal reçu par les récepteurs couplés aux protéines G (RCPG) se propage suite à des interactions transitoires et aléatoires entre les RCPGs, les protéines G et leurs effecteurs. Par les techniques de transfert d’énergie de résonance de bioluminescence (BRET), de complémentation bimoléculaire de protéines fluorescentes (BiFC) et de co-immunoprécipitation, nous avons observé que les récepteurs, les protéines G et les effecteurs forment un complexe stable, avant et après l’activation des récepteurs. L’interaction entre l’effecteur Kir3 et le dimère Gbetagamma se produit initialement au réticulum endoplasmique et est sensible à un agoniste liposoluble des récepteurs beta2-adrénergiques. Bien que peu de spécificité pour les nombreux isoformes des sous-unités Gbetagamma ait été observée pour l’activation du canal Kir3, les interactions précoces au RE sont plus sensibles aux différentes combinaisons de Gbetagamma présentes. En plus de son rôle dans la régulation des effecteurs, le dimère Gbetagamma peut interagir avec de nombreuses protéines possédant des localisations cellulaires autres que la membrane plasmique. Nous avons identifié une nouvelle classe de protéines interagissant avec la sous-unité Gbeta, autant en système de surexpression que dans des extraits de cerveaux de rats, soit les protéines FosB et cFos, qui forment le complexe de transcription AP-1, suite à leur dimérisation avec les protéines de la famille des Jun. La coexpression du dimère Gbetagamma réduit l’activité transcriptionnelle du complexe AP-1 induit par le phorbol 12-,myristate 13-acetate (PMA), sans toutefois interférer avec la formation du complexe Fos/Jun ou son interaction avec l’ADN. Toutefois, le dimère Gbetagamma colocalise au noyau avec le complexe AP-1 et recrute les protéines histones déacétylases (HDAC) afin d’inhiber l’activité transcriptionnelle du complexe AP-1.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

La 1-β-D-arabinofuranosylcytosine (ara-C) demeure l’agent anticancéreux principalement utilisé dans le traitement de la leucémie myéloblastique aiguë (LMA), malgré sa dégradation et son élimination rapide après une administration parentérale. Son encapsulation dans des vecteurs pharmaceutiques, majoritairement des liposomes, a permis de surmonter ces inconvénients. L’objectif général de ce projet de doctorat était de développer deux systèmes à libération prolongée, à base de phospholipides, de cholestérol et de poly(éthylène glycol) (PEG) afin d’encapsuler l’ara-C et ultimement, d’améliorer son efficacité dans le traitement de la LMA. Des Sphérulites® (vésicules multilamellaires d’un type particulier) ont d’abord été étudiées pour leur forte capacité d’encapsulation, due à leur mode de préparation. Par la suite, une formulation liposomale capable, d’une part de cibler spécifiquement les cellules leucémiques et, d’autre part, de promouvoir la libération intracellulaire de l’ara-C grâce à sa sensibilité au pH, a été mise au point. Les deux formulations se devaient d’avoir un faible diamètre, une stabilité en présence de fluides biologiques et des temps de circulation prolongés chez l’animal. Une préparation de Sphérulites®, composée de Phospholipon 90G, de Solutol HS15 et de cholestérol, a permis d’obtenir des vésicules de 300 nm de diamètre. Un dérivé lipidique de PEG a pu être fixé à leur surface, sans modifier la disposition concentrique des lamelles, ni changer leur stabilité. Les Sphérulites® PEGylées ont été chargées d’ara-C et injectées chez le rat par la voie intraveineuse. Elles ont démontré des temps de circulation significativement prolongés comparativement aux Sphérulites® sans PEG. Cependant, l’ara-C s’est retrouvée éliminée de la circulation sanguine très rapidement, révélant une libération précoce du principe actif à partir de ces vésicules. Les liposomes sensibles au pH (~150 nm) ont été obtenus suite à l’insertion d’un copolymère à base de dioctadécyle, de N-isopropylacrylamide (NIPAM) et d’acide méthacrylique. L’anticorps anti-CD33, soit complet soit son fragment Fab’, a été fixé à la surface des liposomes afin de cibler les cellules leucémiques. Les essais in vitro ont démontré la spécificité de la formulation pour différentes cellules leucémiques (CD33+), sa stabilité en présence de protéines plasmatiques et la libération intracellulaire d’un marqueur fluorescent et de l’ara-C. Enfin, des études menées chez la souris saine et immunodéprimée inoculée de cellules HL60 ont montré que la formulation exposant le fragment Fab’ possédait un profil pharmacocinétique et une biodistribution semblables à ceux des liposomes contrôles non-ciblés. L’encapsulation de l’ara-C a permis d’améliorer grandement ses temps de circulation après une administration intraveineuse. Cependant, bien que les immunoliposomes ont permis de prolonger la survie des souris leucémiques comparativement à l’ara-C libre, l’addition du polymère sensible au pH n’a pas permis d’apporter de réel avantage à la formulation lorsque administrée in vivo. Les résultats obtenus dans ce travail de thèse ont, dans un premier temps, mis en évidence que les Sphérulites® pourraient s’avérer utiles dans la vectorisation d’agents anticancéreux si leur capacité à retenir le principe actif in vivo était améliorée. Dans un second temps, les données présentées avec les immunoliposomes suggèrent qu’ils pourraient apporter un bénéfice notable dans le traitement de la LMA.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

Ce travail de maîtrise a mené à la rédaction d'un article (Physical Review A 80, 062319 (2009)).

Relevância:

20.00% 20.00%

Publicador:

Resumo:

L'administration fédérale canadienne et la Commission européenne ont construit, dans le courant des années 2000, deux réseaux de Systèmes d'informations géographiques (SIG) : le Système national d'information forestière au Canada, et l'Infrastructure d'information géographique dans la Communauté européenne. Ces SIG permettent le traitement géographique de données sociales et environnementales ainsi que leur représentation sur des cartes. Nous appréhendons ces deux réseaux de SIG sous l'angle de leur valeur heuristique : leur analyse nous permet d'étudier les configurations institutionnelles dans lesquelles ils ont été développés, c'est-à-dire, dans ces cas précis, ce qu'il est convenu d'appeler la « gouvernance ». Les SIG sont des instruments de mesure et de représentation de certains phénomènes : ils appartiennent à la classe des instruments d'objectivation. En tant qu'instruments d'objectivation, ils nous permettent de discuter deux éléments théoriques de la « gouvernance » : le rapport entre les administrations centrales et les administrations locales ; le rapport entre les administrations étatiques et les organisations non-étatiques. A travers cette discussion, nous montrons d'une part que la réarticulation de paliers de gouvernement différents ne signifie pas, comme cela a pu être écrit, un retrait de l'administration centrale au profit des administrations locales, mais au contraire une manière de contrôler plus étroitement celles-ci. Nous montrons d'autre part que cette renégociation des rapports entre les administrations centrales et locales ne s'accompagne pas, en pratique, d’une renégociation des rapports entre administrations étatiques et organisations non-étatiques. En révélant que les données non-étatiques ne sont pas intégrées dans les réseaux de SIG étatiques, nous relativisons les théories qui voient dans la « gouvernance » un mode de gouvernement ouvert aux organisations non-étatiques. Cela nous conduit à approfondir la piste qui envisage les instruments étatiques d'objectivation comme des moyens d'écarter de l'objectivation des phénomènes sociaux ou naturels les éléments qui contredisent l'action gouvernementale. Cette exégèse politique de deux ensembles de programmes informatiques particuliers – les SIG – nous amène, en conclusion, à proposer de considérer certains programmes informatiques comme des institutions politiques.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

Le module de l'apprenant est l'une des composantes les plus importantes d’un Système Tutoriel Intelligent (STI). L'extension du modèle de l'apprenant n'a pas cessé de progresser. Malgré la définition d’un profil cognitif et l’intégration d’un profil émotionnel, le module de l’apprenant demeure non exhaustif. Plusieurs senseurs physiologiques sont utilisés pour raffiner la reconnaissance des états cognitif et émotionnel de l’apprenant mais l’emploi simultané de tous ces senseurs l’encombre. De plus, ils ne sont pas toujours adaptés aux apprenants dont les capacités sont réduites. Par ailleurs, la plupart des stratégies pédagogiques exécutées par le module du tuteur ne sont pas conçues à la base d’une collecte dynamique de données en temps réel, cela diminue donc de leur efficacité. L’objectif de notre recherche est d’explorer l’activité électrique cérébrale et de l’utiliser comme un nouveau canal de communication entre le STI et l’apprenant. Pour ce faire nous proposons de concevoir, d’implémenter et d’évaluer le système multi agents NORA. Grâce aux agents de NORA, il est possible d’interpréter et d’influencer l’activité électrique cérébrale de l’apprenant pour un meilleur apprentissage. Ainsi, NORA enrichit le module apprenant d’un profile cérébral et le module tuteur de quelques nouvelles stratégies neuropédagogiques efficaces. L’intégration de NORA à un STI donne naissance à une nouvelle génération de systèmes tutoriels : les STI Cérébro-sensibles (ou STICS) destinés à aider un plus grand nombre d’apprenants à interagir avec l’ordinateur pour apprendre à gérer leurs émotions, maintenir la concentration et maximiser les conditions favorable à l’apprentissage.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

Ce mémoire s'intéresse à la vision par ordinateur appliquée à des projets d'art technologique. Le sujet traité est la calibration de systèmes de caméras et de projecteurs dans des applications de suivi et de reconstruction 3D en arts visuels et en art performatif. Le mémoire s'articule autour de deux collaborations avec les artistes québécois Daniel Danis et Nicolas Reeves. La géométrie projective et les méthodes de calibration classiques telles que la calibration planaire et la calibration par géométrie épipolaire sont présentées pour introduire les techniques utilisées dans ces deux projets. La collaboration avec Nicolas Reeves consiste à calibrer un système caméra-projecteur sur tête robotisée pour projeter des vidéos en temps réel sur des écrans cubiques mobiles. En plus d'appliquer des méthodes de calibration classiques, nous proposons une nouvelle technique de calibration de la pose d'une caméra sur tête robotisée. Cette technique utilise des plans elliptiques générés par l'observation d'un seul point dans le monde pour déterminer la pose de la caméra par rapport au centre de rotation de la tête robotisée. Le projet avec le metteur en scène Daniel Danis aborde les techniques de calibration de systèmes multi-caméras. Pour son projet de théâtre, nous avons développé un algorithme de calibration d'un réseau de caméras wiimotes. Cette technique basée sur la géométrie épipolaire permet de faire de la reconstruction 3D d'une trajectoire dans un grand volume à un coût minime. Les résultats des techniques de calibration développées sont présentés, de même que leur utilisation dans des contextes réels de performance devant public.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

Les logiciels utilisés sont Splus et R.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

Alors que certains mécanismes pourtant jugés cruciaux pour la transformation de la pluie en débit restent peu ou mal compris, le concept de connectivité hydrologique a récemment été proposé pour expliquer pourquoi certains processus sont déclenchés de manière épisodique en fonction des caractéristiques des événements de pluie et de la teneur en eau des sols avant l’événement. L’adoption de ce nouveau concept en hydrologie reste cependant difficile puisqu’il n’y a pas de consensus sur la définition de la connectivité, sa mesure, son intégration dans les modèles hydrologiques et son comportement lors des transferts d’échelles spatiales et temporelles. Le but de ce travail doctoral est donc de préciser la définition, la mesure, l’agrégation et la prédiction des processus liés à la connectivité hydrologique en s’attardant aux questions suivantes : 1) Quel cadre méthodologique adopter pour une étude sur la connectivité hydrologique ?, 2) Comment évaluer le degré de connectivité hydrologique des bassins versants à partir de données de terrain ?, et 3) Dans quelle mesure nos connaissances sur la connectivité hydrologique doivent-elles conduire à la modification des postulats de modélisation hydrologique ? Trois approches d’étude sont différenciées, soit i) une approche de type « boite noire », basée uniquement sur l’exploitation des données de pluie et de débits sans examiner le fonctionnement interne du bassin versant ; ii) une approche de type « boite grise » reposant sur l’étude de données géochimiques ponctuelles illustrant la dynamique interne du bassin versant ; et iii) une approche de type « boite blanche » axée sur l’analyse de patrons spatiaux exhaustifs de la topographie de surface, la topographie de subsurface et l’humidité du sol. Ces trois approches sont ensuite validées expérimentalement dans le bassin versant de l’Hermine (Basses Laurentides, Québec). Quatre types de réponses hydrologiques sont distingués en fonction de leur magnitude et de leur synchronisme, sachant que leur présence relative dépend des conditions antécédentes. Les forts débits enregistrés à l’exutoire du bassin versant sont associés à une contribution accrue de certaines sources de ruissellement, ce qui témoigne d’un lien hydraulique accru et donc d’un fort degré de connectivité hydrologique entre les sources concernées et le cours d’eau. Les aires saturées couvrant des superficies supérieures à 0,85 ha sont jugées critiques pour la genèse de forts débits de crue. La preuve est aussi faite que les propriétés statistiques des patrons d’humidité du sol en milieu forestier tempéré humide sont nettement différentes de celles observées en milieu de prairie tempéré sec, d’où la nécessité d’utiliser des méthodes de calcul différentes pour dériver des métriques spatiales de connectivité dans les deux types de milieux. Enfin, la double existence de sources contributives « linéaires » et « non linéaires » est mise en évidence à l’Hermine. Ces résultats suggèrent la révision de concepts qui sous-tendent l’élaboration et l’exécution des modèles hydrologiques. L’originalité de cette thèse est le fait même de son sujet. En effet, les objectifs de recherche poursuivis sont conformes à la théorie hydrologique renouvelée qui prône l’arrêt des études de particularismes de petite échelle au profit de l’examen des propriétés émergentes des bassins versants telles que la connectivité hydrologique. La contribution majeure de cette thèse consiste ainsi en la proposition d’une définition unifiée de la connectivité, d’un cadre méthodologique, d’approches de mesure sur le terrain, d’outils techniques et de pistes de solution pour la modélisation des systèmes hydrologiques.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

Réalisé en cotutelle, sous la direction du Pr. Bernold Hasenknopf, à l'Institut Parisien de Chimie Moléculaire, Université Pierre et Marie Curie (Paris VI, France) et dans le cadre de l'Ecole Doctorale "Physique et Chimie des Matériaux" - Spécialité Chimie Inorganique (ED397).

Relevância:

20.00% 20.00%

Publicador:

Resumo:

L’introduction du développement durable apporte de nouvelles préoccupations environnementales au niveau de la construction et de la rénovation résidentielles, une industrie qui représente un marché économique important au Canada. En plus d’engendrer plusieurs impacts sur l’environnement, la conception actuelle ne permet pas d’accommoder le changement initié par l’évolution des pratiques, les avancées technologiques, mais également par l’évolution des patrons de vie des occupants. Dans un premier temps, la revue de littérature dresse le portrait de l’industrie de la construction, rénovation et démolition (CRD) au Canada, ainsi que le profil de gestion des débris de CRD. Ensuite, une analyse documentaire traite de différents outils de conception développés pour améliorer la performance du secteur : 3RV-E, écoconception, écoconstruction et LEED®. De plus, la recension des écrits permet également de cerner les concepts d’adaptabilité et de flexibilité au niveau du bâtiment et dans les approches et mouvements émergents en architecture. Cette démarche nous amène à établir l’hypothèse que l’intégration des critères d’adaptabilité et de flexibilité au niveau du logement aurait pour effet d’améliorer l’adéquation entre les besoins évolutifs des occupants et les nouvelles considérations environnementales. Au niveau méthodologique, l’analyse du cycle de vie simplifiée par l’Eco-indicator99 encadre l’analyse environnementale de l’ossature de trois types de construction de cloison. De cette évaluation, on conclut que c’est la construction traditionnelle à ossature de bois qui produit le moins d’impacts. Dans l’ordre suivant la proposition de construction de cloison à ossature d’aluminium, plus adaptable et flexible, et finalement la construction à ossature d’acier qui est le système le plus dommageable. Par contre, en intégrant le facteur temporel, cette analyse démontre que l’intégration de l’adaptabilité et de la flexibilité procure plusieurs cycles de vie et de rénovation au produit et à ses composantes. Finalement, ces concepts offrent également le potentiel de diminuer les impacts générés par la construction et la rénovation, un constat qui mériterait d’être abordé dans une approche plus systémique.