732 resultados para changement de paradigme
Resumo:
Cette thèse est composée de trois articles en économie des ressources naturelles non-renouvelables. Nous considérons tour à tour les questions suivantes : le prix in-situ des ressources naturelles non-renouvelables ; le taux d’extraction optimal et le prix des res- sources non-renouvelables et durables. Dans le premier article, nous estimons le prix in-situ des ressources naturelles non-renouvelables en utilisant les données sur le coût moyen d’extraction pour obtenir une approximation du coût marginal. En utilisant la Méthode des Moments Généralisés, une dynamique du prix de marché derivée des conditions d’optimalité du modèle d’Hotelling est estimée avec des données de panel de 14 ressources naturelles non-renouvelables. Nous trouvons des résultats qui tendent à soutenir le modèle. Premièrement, le modèle d’Hotelling exhibe un bon pouvoir explicatif du prix de marché observé. Deuxièmement, bien que le prix estimé présente un changement structurel dans le temps, ceci semble n’avoir aucun impact significatif sur le pouvoir explicatif du modèle. Troisièmement, on ne peut pas rejeter l’hypothèse que le coût marginal d’extraction puisse être approximé par les données sur le coût moyen. Quatrièmement, le prix in-situ estimé en prenant en compte les changements structurels décroît ou exhibe une forme en U inversé dans le temps et semble être corrélé positivement avec le prix de marché. Cinquièmement, pour neuf des quatorze ressources, la différence entre le prix in-situ estimé avec changements structurels et celui estimé en négligeant les changements structurels est un processus de moyenne nulle. Dans le deuxième article, nous testons l’existence d’un équilibre dans lequel le taux d’extraction optimal des ressources non-renouvelables est linéaire par rapport au stock de ressource en terre. Tout d’abord, nous considérons un modèle d’Hotelling avec une fonction de demande variant dans le temps caractérisée par une élasticité prix constante et une fonction de coût d’extraction variant dans le temps caractérisée par des élasticités constantes par rapport au taux d’extraction et au stock de ressource. Ensuite, nous mon- trons qu’il existe un équilibre dans lequel le taux d’extraction optimal est proportionnel au stock de ressource si et seulement si le taux d’actualisation et les paramètres des fonctions de demande et de coût d’extraction satisfont une relation bien précise. Enfin, nous utilisons les données de panel de quatorze ressources non-renouvelables pour vérifier empiriquement cette relation. Dans le cas où les paramètres du modèle sont supposés invariants dans le temps, nous trouvons qu’on ne peut rejeter la relation que pour six des quatorze ressources. Cependant, ce résultat change lorsque nous prenons en compte le changement structurel dans le temps des prix des ressources. En fait, dans ce cas nous trouvons que la relation est rejetée pour toutes les quatorze ressources. Dans le troisième article, nous étudions l’évolution du prix d’une ressource naturelle non-renouvelable dans le cas où cette ressource est durable, c’est-à-dire qu’une fois extraite elle devient un actif productif détenu hors terre. On emprunte à la théorie de la détermination du prix des actifs pour ce faire. Le choix de portefeuille porte alors sur les actifs suivant : un stock de ressource non-renouvelable détenu en terre, qui ne procure aucun service productif ; un stock de ressource détenu hors terre, qui procure un flux de services productifs ; un stock d’un bien composite, qui peut être détenu soit sous forme de capital productif, soit sous forme d’une obligation dont le rendement est donné. Les productivités du secteur de production du bien composite et du secteur de l’extraction de la ressource évoluent de façon stochastique. On montre que la prédiction que l’on peut tirer quant au sentier de prix de la ressource diffère considérablement de celle qui découle de la règle d’Hotelling élémentaire et qu’aucune prédiction non ambiguë quant au comportement du sentier de prix ne peut être obtenue de façon analytique.
Resumo:
Mémoire numérisé par la Division de la gestion de documents et des archives de l'Université de Montréal.
Resumo:
Mémoire numérisé par la Division de la gestion de documents et des archives de l'Université de Montréal.
Resumo:
Mémoire numérisé par la Division de la gestion de documents et des archives de l'Université de Montréal
Resumo:
Mémoire numérisé par la Division de la gestion de documents et des archives de l'Université de Montréal
Resumo:
Mémoire numérisé par la Division de la gestion de documents et des archives de l'Université de Montréal
Resumo:
Mémoire numérisé par la Division de la gestion de documents et des archives de l'Université de Montréal
Resumo:
Cette présentation examinera le degré de certitude qui peut être atteint dans le domaine scientifique. Le paradigme scientifique est composé de deux extrêmes; causalité et déterminisme d'un côté et probabilité et indéterminisme de l'autre. En faisant appel aux notions de Hume de la ressemblance et la contiguïté, on peut rejeter la causalité ou le hasard objectif comme étant sans fondement et non empirique. Le problème de l'induction et le sophisme du parieur proviennent d’une même source cognitif / heuristique. Hume décrit ces tendances mentales dans ses essais « Of Probability » et « Of the Idea of Necessary Connexion ». Une discussion sur la conception de la probabilité de Hume ainsi que d'autres interprétations de probabilité sera nécessaire. Même si la science glorifie et idéalise la causalité, la probabilité peut être comprise comme étant tout aussi cohérente. Une attitude probabiliste, même si elle est également non empirique, pourrait être plus avantageuse que le vieux paradigme de la causalité.
Resumo:
Mémoire numérisé par la Division de la gestion de documents et des archives de l'Université de Montréal
Resumo:
De nos jours les cartes d’utilisation/occupation du sol (USOS) à une échelle régionale sont habituellement générées à partir d’images satellitales de résolution modérée (entre 10 m et 30 m). Le National Land Cover Database aux États-Unis et le programme CORINE (Coordination of information on the environment) Land Cover en Europe, tous deux fondés sur les images LANDSAT, en sont des exemples représentatifs. Cependant ces cartes deviennent rapidement obsolètes, spécialement en environnement dynamique comme les megacités et les territoires métropolitains. Pour nombre d’applications, une mise à jour de ces cartes sur une base annuelle est requise. Depuis 2007, le USGS donne accès gratuitement à des images LANDSAT ortho-rectifiées. Des images archivées (depuis 1984) et des images acquises récemment sont disponibles. Sans aucun doute, une telle disponibilité d’images stimulera la recherche sur des méthodes et techniques rapides et efficaces pour un monitoring continue des changements des USOS à partir d’images à résolution moyenne. Cette recherche visait à évaluer le potentiel de telles images satellitales de résolution moyenne pour obtenir de l’information sur les changements des USOS à une échelle régionale dans le cas de la Communauté Métropolitaine de Montréal (CMM), une métropole nord-américaine typique. Les études précédentes ont démontré que les résultats de détection automatique des changements dépendent de plusieurs facteurs tels : 1) les caractéristiques des images (résolution spatiale, bandes spectrales, etc.); 2) la méthode même utilisée pour la détection automatique des changements; et 3) la complexité du milieu étudié. Dans le cas du milieu étudié, à l’exception du centre-ville et des artères commerciales, les utilisations du sol (industriel, commercial, résidentiel, etc.) sont bien délimitées. Ainsi cette étude s’est concentrée aux autres facteurs pouvant affecter les résultats, nommément, les caractéristiques des images et les méthodes de détection des changements. Nous avons utilisé des images TM/ETM+ de LANDSAT à 30 m de résolution spatiale et avec six bandes spectrales ainsi que des images VNIR-ASTER à 15 m de résolution spatiale et avec trois bandes spectrales afin d’évaluer l’impact des caractéristiques des images sur les résultats de détection des changements. En ce qui a trait à la méthode de détection des changements, nous avons décidé de comparer deux types de techniques automatiques : (1) techniques fournissant des informations principalement sur la localisation des changements et (2)techniques fournissant des informations à la fois sur la localisation des changements et sur les types de changement (classes « de-à »). Les principales conclusions de cette recherche sont les suivantes : Les techniques de détection de changement telles les différences d’image ou l’analyse des vecteurs de changements appliqués aux images multi-temporelles LANDSAT fournissent une image exacte des lieux où un changement est survenu d’une façon rapide et efficace. Elles peuvent donc être intégrées dans un système de monitoring continu à des fins d’évaluation rapide du volume des changements. Les cartes des changements peuvent aussi servir de guide pour l’acquisition d’images de haute résolution spatiale si l’identification détaillée du type de changement est nécessaire. Les techniques de détection de changement telles l’analyse en composantes principales et la comparaison post-classification appliquées aux images multi-temporelles LANDSAT fournissent une image relativement exacte de classes “de-à” mais à un niveau thématique très général (par exemple, bâti à espace vert et vice-versa, boisés à sol nu et vice-versa, etc.). Les images ASTER-VNIR avec une meilleure résolution spatiale mais avec moins de bandes spectrales que LANDSAT n’offrent pas un niveau thématique plus détaillé (par exemple, boisés à espace commercial ou industriel). Les résultats indiquent que la recherche future sur la détection des changements en milieu urbain devrait se concentrer aux changements du couvert végétal puisque les images à résolution moyenne sont très sensibles aux changements de ce type de couvert. Les cartes indiquant la localisation et le type des changements du couvert végétal sont en soi très utiles pour des applications comme le monitoring environnemental ou l’hydrologie urbaine. Elles peuvent aussi servir comme des indicateurs des changements de l’utilisation du sol. De techniques telles l’analyse des vecteurs de changement ou les indices de végétation son employées à cette fin.
Resumo:
Un système, décrit avec un grand nombre d'éléments fortement interdépendants, est complexe, difficile à comprendre et à maintenir. Ainsi, une application orientée objet est souvent complexe, car elle contient des centaines de classes avec de nombreuses dépendances plus ou moins explicites. Une même application, utilisant le paradigme composant, contiendrait un plus petit nombre d'éléments, faiblement couplés entre eux et avec des interdépendances clairement définies. Ceci est dû au fait que le paradigme composant fournit une bonne représentation de haut niveau des systèmes complexes. Ainsi, ce paradigme peut être utilisé comme "espace de projection" des systèmes orientés objets. Une telle projection peut faciliter l'étape de compréhension d'un système, un pré-requis nécessaire avant toute activité de maintenance et/ou d'évolution. De plus, il est possible d'utiliser cette représentation, comme un modèle pour effectuer une restructuration complète d'une application orientée objets opérationnelle vers une application équivalente à base de composants tout aussi opérationnelle. Ainsi, La nouvelle application bénéficiant ainsi, de toutes les bonnes propriétés associées au paradigme composants. L'objectif de ma thèse est de proposer une méthode semi-automatique pour identifier une architecture à base de composants dans une application orientée objets. Cette architecture doit, non seulement aider à la compréhension de l'application originale, mais aussi simplifier la projection de cette dernière dans un modèle concret de composant. L'identification d'une architecture à base de composants est réalisée en trois grandes étapes: i) obtention des données nécessaires au processus d'identification. Elles correspondent aux dépendances entre les classes et sont obtenues avec une analyse dynamique de l'application cible. ii) identification des composants. Trois méthodes ont été explorées. La première utilise un treillis de Galois, la seconde deux méta-heuristiques et la dernière une méta-heuristique multi-objective. iii) identification de l'architecture à base de composants de l'application cible. Cela est fait en identifiant les interfaces requises et fournis pour chaque composant. Afin de valider ce processus d'identification, ainsi que les différents choix faits durant son développement, j'ai réalisé différentes études de cas. Enfin, je montre la faisabilité de la projection de l'architecture à base de composants identifiée vers un modèle concret de composants.
Resumo:
La leucémie lymphoïde représente environ 30% des cas de cancer chez l’enfant. Elle est souvent causée par des réarrangements chromosomiques impliquant des gènes encodant des facteurs de transcription, qui contrôlent des programmes génétiques complexes. Par exemple, LMO2 (LIM-only 2) est un facteur de transcription oncogénique fréquemment exprimé de façon aberrante dans les leucémies lymphoblastiques aigues des cellules T (T-ALL). Dans l’hématopoïèse normale, LMO2 est essentiel à la génération des cellules souches hématopoïétiques à l’origine de toutes les cellules sanguines. D’ailleurs, certaines cellules leucémiques possèdent des propriétés normalement réservées aux cellules souches hématopoïétiques. Ainsi, l’étude de la fonction de LMO2 dans les cellules souches hématopoïétiques peut être pertinente autant dans le contexte hématopoïétique normal que leucémique. Afin de mettre en évidence de nouvelles fonctions moléculaires pour LMO2, j’ai choisi d’identifier les protéines qui s’y associent. En plus de ses partenaires connus, j’ai identifié plusieurs protéines de transcription/remodelage de la chromatine, en accord avec son rôle transcriptionnel. Plusieurs nouvelles fonctions potentielles ont été révélées, indiquant que cette protéine adaptatrice pourrait faire partie de complexes non transcriptionnels, régulant d’autres processus cellulaires. Les oncogènes comme LMO2 pourraient être des régulateurs à large spectre. Particulièrement, j’ai identifié des interactions entre LMO2 et des protéines de réplication de l’ADN. J’ai montré que LMO2 contrôle la réplication de l’ADN dans les cellules hématopoïétiques, et possiblement durant la leucémogenèse, indépendamment de son rôle transcriptionnel. Ensemble, ces études ont donc permis de révéler de nouvelles fonctions pour LMO2, et pourraient servir de paradigme pour d’autres facteurs de transcription oncogéniques, particulièrement aux autres protéines de la famille LMO, qui sont aussi des oncogènes puissants.
Resumo:
L’adénovirus a été étudié dans l’optique de développer de nouveaux traitements pour différentes maladies. Les vecteurs adénoviraux (AdV) sont des outils intéressants du fait qu’ils peuvent être produits en grandes quantités (1X1012 particules par millilitre) et de par leur capacité à infecter des cellules quiescentes ou en division rapide. Les AdVs ont subi bon nombre de modifications pour leur permettre de traiter des cellules tumorales ou pour transporter des séquences génétiques exogènes essentielles pour le traitement de maladies monogéniques. Toutefois, les faibles niveaux d’expression du récepteur primaire de l’adénovirus, le CAR (récepteur à l’adénovirus et au virus coxsackie), réduit grandement l’efficacité de transduction dans plusieurs tumeurs. De plus, certains tissus normaux comme les muscles n’expriment que très peu de CAR, rendant l’utilisation des AdVs moins significative. Pour pallier à cette limitation, plusieurs modifications ont été générées sur les capsides virales. L’objectif de ces modifications était d’augmenter l’affinité des AdVs pour des récepteurs cellulaires spécifiques surexprimés dans les tumeurs et qui seraient exempts dans les tissus sains avoisinant. On peut mentionner dans les approches étudiées: l’utilisation de ligands bispécifiques, l’incorporation de peptides dans différentes régions de la fibre ou la substitution par une fibre de sérotypes différents. Notre hypothèse était que les domaines d’interaction complémentaire (K-Coil et ECoil) permettraient aux ligands de s’associer aux particules virales et d’altérer le tropisme de l’AdV. Pour ce faire, nous avons inclus un domaine d’interaction synthétique, le K-Coil,dans différentes régions de la fibre virale en plus de générer des mutations spécifiques pour abolir le tropisme naturel. Pour permettre la liaison avec les récepteurs d’intérêt dont l’EGF-R, l’IGF-IR et le CEA6, nous avons fusionné le domaine d’interaction complémentaire, le E-Coil, soit dans les ligands des récepteurs ciblés dont l’EGF et l’IGF-I, soit sur un anticorps à un seul domaine reconnaissant la protéine membranaire CEA6, l’AFAI. Suite à la construction des différents ligands de même que des différentes fibres virales modifiées, nous avons determiné tout d’abord que les différents ligands de même que les virus modifiés pouvaient être produits et que les différentes composantes pouvaient interagir ensemble. Les productions virales ont été optimisées par l’utilisation d’un nouveau protocole utilisant l’iodixanol. Ensuite, nous avons démontré que l’association des ligands avec le virus arborant une fibre modifiée pouvait entraîner une augmentation de transduction de 2 à 21 fois dans différentes lignées cellulaires. À cause de la difficulté des adénovirus à infecter les fibres musculaires occasionnée par l’absence du CAR, nous avons cherché à savoir si le changement de tropisme pourrait accroître l’infectivité des AdVs. Nous avons démontré que l’association avec le ligand bispécifique IGF-E5 permettait d’accroître la transduction autant dans les myoblastes que dans les myotubes de souris. Nous avons finalement réussi à démontrer que notre système pouvait induire une augmentation de 1,6 fois de la transduction suite à l’infection des muscles de souriceaux MDX. Ces résultats nous amènent à la conclusion que le système est fonctionnel et qu’il pourrait être évalué dans des AdVs encodant pour différents gènes thérapeutiques.
Resumo:
Introduction: L’expansion palatine du maxillaire a beaucoup d’effets positifs sur la respiration et la qualité du sommeil, mais peu d'études ont examiné ces données sur des adultes ayant dépassé l’âge permettant de bénéficier d'une expansion palatine conventionnelle. Le but de cette recherche est d’évaluer la stabilité de l’EPRAC (expansion palatine rapide assistée chirurgicalement) et son effet sur les troubles respiratoires après l’ablation des appareils orthodontiques. Méthodes: Neuf patients (Âge moyen 21, entre 16-39 ans) nécessitant une EPRAC ont passé des nuits dans un laboratoire de sommeil, et ce avant l’EPRAC, après l’EPRAC, et après l’ablation des appareils fixes. Les radiographies céphalométriques postéroantérieures ainsi que les modèles d’étude ont été pris pendant ces trois périodes de temps. Résultats: L’analyse des modèles d’étude a démontré une récidive significative au niveau des distances inter-molaires et inter-canines au niveau du maxillaire seulement. Les analyses céphalométriques ont démontré une récidive au niveau de la largeur maxillaire. Aucun changement important n'a été observé dans les stades de sommeil, mais une réduction importante dans l’index de ronflement a été notée. De plus, il y avait moins de changements entre les stades de sommeil. Conclusions: La récidive squelettique est minime et cliniquement non significative. Par contre, les changements dans les distances intermolaires et intercanines sont cliniquement importants. Il semble également qu'une EPRAC ait un effet positif sur la qualité de sommeil par la réduction de l’indice de ronflement ainsi que sur la diminution des changements entre les stades de sommeil.
Resumo:
Introduction : Cette étude vise à évaluer la stabilité de la chirurgie LeFort I multisegmentaire à moyen (fin du traitement orthodontique) et à long termes dans les trois plans de l'espace (transversal, antéro-postérieur et vertical). Matériel et méthodes : L'échantillon étudié est composé de 31 patients traités en clinique privée, ayant eu une chirurgie LeFort I multisegmentaire en deux, trois ou quatre morceaux, et ayant terminé leur traitement orthodontique. Parmi eux, 17 patients ayant terminé leur traitement orthodontique depuis plus de deux ans (moyenne de trois ans post-traitement) ont permis d'évaluer la stabilité de la procédure chirurgicale à long terme. La collecte des données a été réalisée sur des modèles et des radiographies céphalométriques latérales pris à des temps précis tout au long du traitement orthodontique, ainsi que pendant la période de contention. Concernant l'analyse statistique, des T-tests et des corrélations de Pearson ont été utilisés. Le test de Bland-Altman et le coefficient de corrélation intra-classe ont permis d'analyser les fiabilités intra-examinateur et inter-examinateurs. Résultats : Une récidive transverse significative, mais très faible cliniquement, est constatée aux niveaux prémolaires et molaires entre la chirurgie et la fin du traitement orthodontique. Elle est corrélée avec l’expansion totale réalisée. Cette récidive transverse est non significative suite au traitement orthodontique. Aucune corrélation statistiquement significative n'est mise en évidence entre le nombre de segments et la récidive transverse postchirurgicale. Une variation de certaines mesures antéro-postérieures et verticales statistiquement significative, mais faible cliniquement, est notée entre la chirurgie et la fin du traitement orthodontique (avancement et impaction postérieure). Pour les mesures antéro-postérieures et verticales, aucun changement n'est statistiquement significatif suite au traitement orthodontique. Conclusion : Pour l'échantillon étudié, la stabilité de l'ostéotomie de type LeFort I multisegmentaire est très bonne, dans les trois plans de l'espace étudiés.