79 resultados para Formules apparentées
em Université de Montréal, Canada
Resumo:
Dans le vaste champ du droit international des affaires, les projets «Build, Operate and Transfer» (BOT) signifiant «Construire, Exploiter et Transférer» et leurs variantes semblent moins connus du fait qu'ils représentent un type particulier d'investissement. La réalisation de ces projets fait intervenir de nombreux acteurs (notamment l'État hôte, la société concessionnaire et les cocontractants) aux intérêts souvent divergents mais qui tendent tous à la satisfaction d'un objectif commun: la réussite du projet. L'une des particularités de ces projets est que l'État ayant un fort taux d'endettement et d'impérieuses contraintes budgétaires limitant la capacité du secteur public aux besoins croissants en matière d'infrastructures, bénéficie sous certaines conditions, la participation du secteur privé qui supporte d'énormes risques financiers. Notre étude se veut d'abord une pénétration des mécanismes contractuels des projets BOT afin de déceler les enjeux qui font leur complexité. C'est à la suite de cette analyse que succèdera l'étude des problèmes juridiques affectant l'enveloppe financière, les garanties étatiques ainsi que l'allocation des risques. Dans la troisième partie, notre réflexion sera relancée pour comprendre des questions multiples liées à la sécurisation des investissements BOT réalisés dans les pays à instabilité politique particulièrement en Afrique. Le bilan s'ouvrira sur une analyse critique des sentences arbitrales ciblées en insistant sur des principes très généraux dont l'application a fait l'objet des débats animés en droit des investissements.
Resumo:
Ce mémoire contient quelques résultats sur l'intégration numérique. Ils sont liés à la célèbre formule de quadrature de K. F. Gauss. Une généralisation très intéressante de la formule de Gauss a été obtenue par P. Turán. Elle est contenue dans son article publié en 1948, seulement quelques années après la seconde guerre mondiale. Étant données les circonstances défavorables dans lesquelles il se trouvait à l'époque, l'auteur (Turán) a laissé beaucoup de détails à remplir par le lecteur. Par ailleurs, l'article de Turán a inspiré une multitude de recherches; sa formule a été étendue de di érentes manières et plusieurs articles ont été publiés sur ce sujet. Toutefois, il n'existe aucun livre ni article qui contiennent un compte-rendu détaillé des résultats de base, relatifs à la formule de Turán. Je voudrais donc que mon mémoire comporte su samment de détails qui puissent éclairer le lecteur tout en présentant un exposé de ce qui a été fait sur ce sujet. Voici comment nous avons organisé le contenu de ce mémoire. 1-a. La formule de Gauss originale pour les polynômes - L'énoncé ainsi qu'une preuve. 1-b. Le point de vue de Turán - Compte-rendu détaillé des résultats de son article. 2-a. Une formule pour les polynômes trigonométriques analogue à celle de Gauss. 2-b. Une formule pour les polynômes trigonométriques analogue à celle de Turán. 3-a. Deux formules pour les fonctions entières de type exponentiel, analogues à celle de Gauss pour les polynômes. 3-b. Une formule pour les fonctions entières de type exponentiel, analogue à celle de Turán. 4-a. Annexe A - Notions de base sur les polynômes de Legendre. 4-b. Annexe B - Interpolation polynomiale. 4-c. Annexe C - Notions de base sur les fonctions entières de type exponentiel. 4-d. Annexe D - L'article de P. Turán.
Resumo:
L’obésité est un problème de santé publique reconnu. Dans la dernière décennie l’obésité abdominale (OA) a été considérée comme une maladie métabolique qui contribue davantage au risque de diabète et de maladies cardiovasculaires que l’obésité générale définie par l’indice de masse corporelle. Toutefois, dans les populations d’origine africaine, la relation entre l’OA et les autres biomarqueurs de risque cardiométabolique (RCM) demeure obscure à cause du manque d’études chez ces populations et de l’absence de valeurs-seuils spécifiques pour juger d’une OA. Cette étude visait à comparer la prévalence des biomarqueurs de RCM (OA, hypertension artérielle, hyperglycémie, dyslipidémie, résistance à l'insuline et inflammation pré-clinique) chez les Béninois de Cotonou et les Haïtiens de Port-au-Prince (PAP), à étudier l’association de l’OA avec les autres biomarqueurs de RCM, à documenter le rôle du niveau socio-économique (NSE) et du mode de vie dans cette association et à ’identifier les indicateurs anthropométriques de l’OA -tour de taille (TT) et le ratio TT/hauteur (TT/H)- et les seuils qui prédisent le mieux le RCM à Cotonou et à PAP. Il s’est agi d’une analyse de données transversales chez 452 adultes (52 % hommes) apparemment en bonne santé, âgés de 25 à 60 ans, avec 200 sujets vivant à Cotonou (Bénin) et 252 sujets à PAP (Haïti). Les biomarqueurs de RCM considérés étaient : le syndrome métabolique (SMet) d’après les critères harmonisés de 2009 et ses composantes individuelles - une OA à partir d’un TT ≥ 94cm chez les hommes et ≥ 80cm chez les femmes, une hypertension, une dyslipidémie et une hyperglycémie; la résistance à l’insuline définie chez l’ensemble des sujets de l’étude à partir du 75e centile de l’Homeostasis Model Assessment (HOMA-IR); un ratio d’athérogénicité élevé (Cholestérol sérique total/HDL-Cholestérol); et l’inflammation pré-clinique mesurée à partir d’un niveau de protéine C-réactive ultrasensible (PCRus) entre 3 et 10 mg/l. Le ratio TT/H était aussi considéré pour définir l’OA à partir d’un seuil de 0,5. Les données sur les habitudes alimentaires, la consommation d’alcool, le tabagisme, les caractéristiques sociodémographiques et les conditions socio-économiques incluant le niveau d’éducation et un proxy du revenu (basé sur l’analyse par composante principale des biens et des possessions) ont été recueillies au moyen d’un questionnaire. Sur la base de données de fréquence de consommation d’aliments occidentaux, urbains et traditionnels, des schémas alimentaires des sujets de chaque ville ont été identifiés par analyse typologique. La validité et les valeurs-seuils de TT et du ratio TT/H prédictives du RCM ont été définies à partir des courbes ROC (Receiver Operating Characteristics). Le SMet était présent chez 21,5 % et 16,1 % des participants, respectivement à Cotonou et à PAP. La prévalence d’OA était élevée à Cotonou (52,5 %) qu’à PAP (36%), avec une prévalence plus élevée chez les femmes que chez les hommes. Le profil lipidique sérique était plus athérogène à PAP avec 89,3 % d’HDL-c bas à PAP contre 79,7 % à Cotonou et un ratio CT/HDL-c élevé de 73,4 % à PAP contre 42 % à Cotonou. Les valeurs-seuils spécifiques de TT et du TT/H étaient respectivement 94 cm et 0,59 chez les femmes et 80 cm et 0,50 chez les hommes. Les analyses multivariées de l’OA avec les biomarqueurs de RCM les plus fortement prévalents dans ces deux populations montraient que l’OA était associée à un risque accru de résistance à l’insuline, d’athérogénicité et de tension artérielle élevée et ceci, indépendamment des facteurs socio-économiques et du mode de vie. Deux schémas alimentaires ont émergé, transitionnel et traditionnel, dans chaque ville, mais ceux-ci ne se révélaient pas associés aux biomarqueurs de RCM bien qu’ils soient en lien avec les variables socio-économiques. La présente étude confirme la présence de plusieurs biomarqueurs de RCM chez des sujets apparemment sains. En outre, l’OA est un élément clé du RCM dans ces deux populations. Les seuils actuels de TT devraient être reconsidérés éventuellement à la lumière d’études de plus grande envergure, afin de mieux définir l’OA chez les Noirs africains ou d’origine africaine, ce qui permettra une surveillance épidémiologique plus adéquate des biomarqueurs de RCM.
Resumo:
Ce Texte Presente Plusieurs Resultats Exacts Sur les Seconds Moments des Autocorrelations Echantillonnales, Pour des Series Gaussiennes Ou Non-Gaussiennes. Nous Donnons D'abord des Formules Generales Pour la Moyenne, la Variance et les Covariances des Autocorrelations Echantillonnales, Dans le Cas Ou les Variables de la Serie Sont Interchangeables. Nous Deduisons de Celles-Ci des Bornes Pour les Variances et les Covariances des Autocorrelations Echantillonnales. Ces Bornes Sont Utilisees Pour Obtenir des Limites Exactes Sur les Points Critiques Lorsqu'on Teste le Caractere Aleatoire D'une Serie Chronologique, Sans Qu'aucune Hypothese Soit Necessaire Sur la Forme de la Distribution Sous-Jacente. Nous Donnons des Formules Exactes et Explicites Pour les Variances et Covariances des Autocorrelations Dans le Cas Ou la Serie Est un Bruit Blanc Gaussien. Nous Montrons Que Ces Resultats Sont Aussi Valides Lorsque la Distribution de la Serie Est Spheriquement Symetrique. Nous Presentons les Resultats D'une Simulation Qui Indiquent Clairement Qu'on Approxime Beaucoup Mieux la Distribution des Autocorrelations Echantillonnales En Normalisant Celles-Ci Avec la Moyenne et la Variance Exactes et En Utilisant la Loi N(0,1) Asymptotique, Plutot Qu'en Employant les Seconds Moments Approximatifs Couramment En Usage. Nous Etudions Aussi les Variances et Covariances Exactes D'autocorrelations Basees Sur les Rangs des Observations.
Resumo:
This paper develops a general stochastic framework and an equilibrium asset pricing model that make clear how attitudes towards intertemporal substitution and risk matter for option pricing. In particular, we show under which statistical conditions option pricing formulas are not preference-free, in other words, when preferences are not hidden in the stock and bond prices as they are in the standard Black and Scholes (BS) or Hull and White (HW) pricing formulas. The dependence of option prices on preference parameters comes from several instantaneous causality effects such as the so-called leverage effect. We also emphasize that the most standard asset pricing models (CAPM for the stock and BS or HW preference-free option pricing) are valid under the same stochastic setting (typically the absence of leverage effect), regardless of preference parameter values. Even though we propose a general non-preference-free option pricing formula, we always keep in mind that the BS formula is dominant both as a theoretical reference model and as a tool for practitioners. Another contribution of the paper is to characterize why the BS formula is such a benchmark. We show that, as soon as we are ready to accept a basic property of option prices, namely their homogeneity of degree one with respect to the pair formed by the underlying stock price and the strike price, the necessary statistical hypotheses for homogeneity provide BS-shaped option prices in equilibrium. This BS-shaped option-pricing formula allows us to derive interesting characterizations of the volatility smile, that is, the pattern of BS implicit volatilities as a function of the option moneyness. First, the asymmetry of the smile is shown to be equivalent to a particular form of asymmetry of the equivalent martingale measure. Second, this asymmetry appears precisely when there is either a premium on an instantaneous interest rate risk or on a generalized leverage effect or both, in other words, whenever the option pricing formula is not preference-free. Therefore, the main conclusion of our analysis for practitioners should be that an asymmetric smile is indicative of the relevance of preference parameters to price options.
Resumo:
In this paper : a) the consumer’s problem is studied over two periods, the second one involving S states, and the consumer being endowed with S+1 incomes and having access to N financial assets; b) the consumer is then representable by a continuously differentiable system of demands, commodity demands, asset demands and desirabilities of incomes (the S+1 Lagrange multiplier of the S+1 constraints); c) the multipliers can be transformed into subjective Arrow prices; d) the effects of the various incomes on these Arrow prices decompose into a compensation effect (an Antonelli matrix) and a wealth effect; e) the Antonelli matrix has rank S-N, the dimension of incompleteness, if the consumer can financially adjust himself when facing income shocks; f) the matrix has rank S, if not; g) in the first case, the matrix represents a residual aversion; in the second case, a fundamental aversion; the difference between them is an aversion to illiquidity; this last relation corresponds to the Drèze-Modigliani decomposition (1972); h) the fundamental aversion decomposes also into an aversion to impatience and a risk aversion; i) the above decompositions span a third decomposition; if there exists a sure asset (to be defined, the usual definition being too specific), the fundamental aversion admits a three-component decomposition, an aversion to impatience, a residual aversion and an aversion to the illiquidity of risky assets; j) the formulas of the corresponding financial premiums are also presented.
Resumo:
Depuis quelques années, Internet est devenu un média incontournable pour la diffusion de ressources multilingues. Cependant, les différences linguistiques constituent souvent un obstacle majeur aux échanges de documents scientifiques, culturels, pédagogiques et commerciaux. En plus de cette diversité linguistique, on constate le développement croissant de bases de données et de collections composées de différents types de documents textuels ou multimédias, ce qui complexifie également le processus de repérage documentaire. En général, on considère l’image comme « libre » au point de vue linguistique. Toutefois, l’indexation en vocabulaire contrôlé ou libre (non contrôlé) confère à l’image un statut linguistique au même titre que tout document textuel, ce qui peut avoir une incidence sur le repérage. Le but de notre recherche est de vérifier l’existence de différences entre les caractéristiques de deux approches d’indexation pour les images ordinaires représentant des objets de la vie quotidienne, en vocabulaire contrôlé et en vocabulaire libre, et entre les résultats obtenus au moment de leur repérage. Cette étude suppose que les deux approches d’indexation présentent des caractéristiques communes, mais également des différences pouvant influencer le repérage de l’image. Cette recherche permet de vérifier si l’une ou l’autre de ces approches d’indexation surclasse l’autre, en termes d’efficacité, d’efficience et de satisfaction du chercheur d’images, en contexte de repérage multilingue. Afin d’atteindre le but fixé par cette recherche, deux objectifs spécifiques sont définis : identifier les caractéristiques de chacune des deux approches d’indexation de l’image ordinaire représentant des objets de la vie quotidienne pouvant influencer le repérage, en contexte multilingue et exposer les différences sur le plan de l’efficacité, de l’efficience et de la satisfaction du chercheur d’images à repérer des images ordinaires représentant des objets de la vie quotidienne indexées à l’aide d’approches offrant des caractéristiques variées, en contexte multilingue. Trois modes de collecte des données sont employés : l’analyse des termes utilisés pour l’indexation des images, la simulation du repérage d’un ensemble d’images indexées selon chacune des formes d’indexation à l’étude réalisée auprès de soixante répondants, et le questionnaire administré aux participants pendant et après la simulation du repérage. Quatre mesures sont définies pour cette recherche : l’efficacité du repérage d’images, mesurée par le taux de succès du repérage calculé à l’aide du nombre d’images repérées; l’efficience temporelle, mesurée par le temps, en secondes, utilisé par image repérée; l’efficience humaine, mesurée par l’effort humain, en nombre de requêtes formulées par image repérée et la satisfaction du chercheur d’images, mesurée par son autoévaluation suite à chaque tâche de repérage effectuée. Cette recherche montre que sur le plan de l’indexation de l’image ordinaire représentant des objets de la vie quotidienne, les approches d’indexation étudiées diffèrent fondamentalement l’une de l’autre, sur le plan terminologique, perceptuel et structurel. En outre, l’analyse des caractéristiques des deux approches d’indexation révèle que si la langue d’indexation est modifiée, les caractéristiques varient peu au sein d’une même approche d’indexation. Finalement, cette recherche souligne que les deux approches d’indexation à l’étude offrent une performance de repérage des images ordinaires représentant des objets de la vie quotidienne différente sur le plan de l’efficacité, de l’efficience et de la satisfaction du chercheur d’images, selon l’approche et la langue utilisées pour l’indexation.
Resumo:
Cette recherche constitue une incursion dans la bioéthique de l’Asie. Elle vise à vérifier s’il existe une approche de la bioéthique spécifique pour l’Asie et, s’il s’avère que tel est le cas, d’identifier les particularités les plus apparentes de la nature de cette ‘bioéthique asiatique’. La recherche a été réalisée à même des sources documentaires constituées d’un corpus d’articles publiés entre 2001 et 2005, dans les versions électroniques de revues scientifiques reconnues. La recherche conclut à l’existence d’une ‘bioéthique asiatique’ qui accorde à certaines valeurs humaines une prédominance spécifique, de même qu’un sens différent qui lui est propre. Le lien, entre la culture et les traditions morales locales d’une part, et l’ordre de prédominance et l’interprétation des valeurs éthiques d’autre part, doit être reconnu et pris en compte pour que la bioéthique soit pertinente et applicable aux personnes touchées par les enjeux évalués en Asie. La recherche identifie également quatre particularités de la ‘bioéthique asiatique’ qui constitue le début d’une tentative pour en cerner la nature : le rapport entre ‘soi’ et les autres, la compassion, l’harmonie, de même qu’une conception spirituelle du monde dont la base est l’interdépendance et l’interconnexion d’un ordre universel entrelacé et participatif.
Resumo:
RÉSUMÉ - Les images satellitales multispectrales, notamment celles à haute résolution spatiale (plus fine que 30 m au sol), représentent une source d’information inestimable pour la prise de décision dans divers domaines liés à la gestion des ressources naturelles, à la préservation de l’environnement ou à l’aménagement et la gestion des centres urbains. Les échelles d’étude peuvent aller du local (résolutions plus fines que 5 m) à des échelles régionales (résolutions plus grossières que 5 m). Ces images caractérisent la variation de la réflectance des objets dans le spectre qui est l’information clé pour un grand nombre d’applications de ces données. Or, les mesures des capteurs satellitaux sont aussi affectées par des facteurs « parasites » liés aux conditions d’éclairement et d’observation, à l’atmosphère, à la topographie et aux propriétés des capteurs. Deux questions nous ont préoccupé dans cette recherche. Quelle est la meilleure approche pour restituer les réflectances au sol à partir des valeurs numériques enregistrées par les capteurs tenant compte des ces facteurs parasites ? Cette restitution est-elle la condition sine qua non pour extraire une information fiable des images en fonction des problématiques propres aux différents domaines d’application des images (cartographie du territoire, monitoring de l’environnement, suivi des changements du paysage, inventaires des ressources, etc.) ? Les recherches effectuées les 30 dernières années ont abouti à une série de techniques de correction des données des effets des facteurs parasites dont certaines permettent de restituer les réflectances au sol. Plusieurs questions sont cependant encore en suspens et d’autres nécessitent des approfondissements afin, d’une part d’améliorer la précision des résultats et d’autre part, de rendre ces techniques plus versatiles en les adaptant à un plus large éventail de conditions d’acquisition des données. Nous pouvons en mentionner quelques unes : - Comment prendre en compte des caractéristiques atmosphériques (notamment des particules d’aérosol) adaptées à des conditions locales et régionales et ne pas se fier à des modèles par défaut qui indiquent des tendances spatiotemporelles à long terme mais s’ajustent mal à des observations instantanées et restreintes spatialement ? - Comment tenir compte des effets de « contamination » du signal provenant de l’objet visé par le capteur par les signaux provenant des objets environnant (effet d’adjacence) ? ce phénomène devient très important pour des images de résolution plus fine que 5 m; - Quels sont les effets des angles de visée des capteurs hors nadir qui sont de plus en plus présents puisqu’ils offrent une meilleure résolution temporelle et la possibilité d’obtenir des couples d’images stéréoscopiques ? - Comment augmenter l’efficacité des techniques de traitement et d’analyse automatique des images multispectrales à des terrains accidentés et montagneux tenant compte des effets multiples du relief topographique sur le signal capté à distance ? D’autre part, malgré les nombreuses démonstrations par des chercheurs que l’information extraite des images satellitales peut être altérée à cause des tous ces facteurs parasites, force est de constater aujourd’hui que les corrections radiométriques demeurent peu utilisées sur une base routinière tel qu’est le cas pour les corrections géométriques. Pour ces dernières, les logiciels commerciaux de télédétection possèdent des algorithmes versatiles, puissants et à la portée des utilisateurs. Les algorithmes des corrections radiométriques, lorsqu’ils sont proposés, demeurent des boîtes noires peu flexibles nécessitant la plupart de temps des utilisateurs experts en la matière. Les objectifs que nous nous sommes fixés dans cette recherche sont les suivants : 1) Développer un logiciel de restitution des réflectances au sol tenant compte des questions posées ci-haut. Ce logiciel devait être suffisamment modulaire pour pouvoir le bonifier, l’améliorer et l’adapter à diverses problématiques d’application d’images satellitales; et 2) Appliquer ce logiciel dans différents contextes (urbain, agricole, forestier) et analyser les résultats obtenus afin d’évaluer le gain en précision de l’information extraite par des images satellitales transformées en images des réflectances au sol et par conséquent la nécessité d’opérer ainsi peu importe la problématique de l’application. Ainsi, à travers cette recherche, nous avons réalisé un outil de restitution de la réflectance au sol (la nouvelle version du logiciel REFLECT). Ce logiciel est basé sur la formulation (et les routines) du code 6S (Seconde Simulation du Signal Satellitaire dans le Spectre Solaire) et sur la méthode des cibles obscures pour l’estimation de l’épaisseur optique des aérosols (aerosol optical depth, AOD), qui est le facteur le plus difficile à corriger. Des améliorations substantielles ont été apportées aux modèles existants. Ces améliorations concernent essentiellement les propriétés des aérosols (intégration d’un modèle plus récent, amélioration de la recherche des cibles obscures pour l’estimation de l’AOD), la prise en compte de l’effet d’adjacence à l’aide d’un modèle de réflexion spéculaire, la prise en compte de la majorité des capteurs multispectraux à haute résolution (Landsat TM et ETM+, tous les HR de SPOT 1 à 5, EO-1 ALI et ASTER) et à très haute résolution (QuickBird et Ikonos) utilisés actuellement et la correction des effets topographiques l’aide d’un modèle qui sépare les composantes directe et diffuse du rayonnement solaire et qui s’adapte également à la canopée forestière. Les travaux de validation ont montré que la restitution de la réflectance au sol par REFLECT se fait avec une précision de l’ordre de ±0.01 unités de réflectance (pour les bandes spectrales du visible, PIR et MIR), même dans le cas d’une surface à topographie variable. Ce logiciel a permis de montrer, à travers des simulations de réflectances apparentes à quel point les facteurs parasites influant les valeurs numériques des images pouvaient modifier le signal utile qui est la réflectance au sol (erreurs de 10 à plus de 50%). REFLECT a également été utilisé pour voir l’importance de l’utilisation des réflectances au sol plutôt que les valeurs numériques brutes pour diverses applications courantes de la télédétection dans les domaines des classifications, du suivi des changements, de l’agriculture et de la foresterie. Dans la majorité des applications (suivi des changements par images multi-dates, utilisation d’indices de végétation, estimation de paramètres biophysiques, …), la correction des images est une opération cruciale pour obtenir des résultats fiables. D’un point de vue informatique, le logiciel REFLECT se présente comme une série de menus simples d’utilisation correspondant aux différentes étapes de saisie des intrants de la scène, calcul des transmittances gazeuses, estimation de l’AOD par la méthode des cibles obscures et enfin, l’application des corrections radiométriques à l’image, notamment par l’option rapide qui permet de traiter une image de 5000 par 5000 pixels en 15 minutes environ. Cette recherche ouvre une série de pistes pour d’autres améliorations des modèles et méthodes liés au domaine des corrections radiométriques, notamment en ce qui concerne l’intégration de la FDRB (fonction de distribution de la réflectance bidirectionnelle) dans la formulation, la prise en compte des nuages translucides à l’aide de la modélisation de la diffusion non sélective et l’automatisation de la méthode des pentes équivalentes proposée pour les corrections topographiques.
Resumo:
Cette recherche s’inscrit dans le cadre de l’évaluation des compétences langagières en français chez des adultes immigrants en vue de leur placement dans des cours de français. Elle porte sur la dimensionnalité, de même que sur la difficulté objective et subjective de tâches discrètes ou intégrées de compréhension écrite, à différents niveaux de maîtrise. Elle propose des analyses de l’estimation de la maîtrise linguistique en fonction de l’appartenance des candidats à des groupes linguistiques distincts. Pour mener à bien la recherche, un test de six textes et de 30 items a été créé. Il a été administré à 118 immigrants. Ces immigrants suivaient les cours de français proposés par le Ministère de l’immigration et des communautés culturelles du Québec (MICC) dans les écoles de langues de l’Université de Montréal et de l’Université du Québec à Montréal. Après administration, ce test a été soumis à des analyses portant sur la dimensionnalité et la difficulté des tâches discrètes et intégrées ainsi que sur les interactions entre ces tâches et les différents groupes de candidats. Des études plus précises ont été faites sur l’interaction entre le type de tâche, l’appartenance à un groupe linguistique pour des candidats et des items de niveau similaire. Enfin, des analyses ont permis d’étudier la perception de la difficulté des tâches par les candidats. L’étude, même si elle porte sur un test en rodage, permet de distinguer la dimensionnalité de tâches discrètes de celle de tâches intégrées. Elle permet également de constater les différences de fonctionnement entre ces deux types de tâches. Enfin, elle permet de comprendre l’interprétation de la difficulté par les candidats et, par ricochet, leur vision du test. In fine, des propositions sont formulées quant à l’opportunité d’utiliser des tâches discrètes et intégrées dans un test de positionnement adaptatif en français langue seconde.
Resumo:
Élaborée à partir d’une étude de cas extensive focalisant sur les perspectives multiples et concurrentes ayant émergé lors des négociations sur la gouvernance de l’Internet, thématique ayant dominé l’agenda politique du Sommet mondial sur la société de l’information (SMSI), cette thèse examine les manières avec lesquelles les débats mondiaux sur la gouvernance de l’Internet influencent la notion d’intérêt public en communication. Établie sur la base d’une observation participante extensive, d’entrevues semi-structurées et de l’analyse d’une documentation formelle et informelle associée au SMSI, cette thèse fait état de l’émergence des enjeux associés à la gouvernance de l’Internet au SMSI et présente une analyse approfondie des négociations ayant porté sur cet enjeu. Le cadre théorique développé par Lawrence Lessig au travers duquel « le code est la loi » est appliqué afin d’expliquer comment les différents acteurs ont débattu et ultimement atteint un consensus sur les frontières venant séparer les enjeux normatifs de politique publique et les questions techniques de régulation et de gestion du réseau. Cette thèse discute également de l’évolution des débats autour de la gouvernance mondiale de l’Internet ayant pris place à la suite de la conclusion du SMSI. Sur la base de cette étude de cas, un ensemble de conclusions sont formulées sur les acteurs et les caractéristiques institutionnelles ayant influencé les négociations sur la gouvernance de l’internet. Il est également suggéré que le SMSI a redéfini une discussion étroite sur la gestion d’un ensemble de fonctions techniques de l’Internet en un domaine de politique publique plus large de gouvernance mondiale de l’Internet. Il est également défendu que la notion d’intérêt public dans la gouvernance mondiale de l’Internet est conceptualisée autour des processus de participation et d’intégration des différentes parties prenantes au processus politique. Les implications directes et indirectes qui découlent de ce constat pour comprendre plus largement la notion d’intérêt public dans le domaine de la communication sont également présentées et discutées. En conclusion, cette thèse s’interroge sur les implications programmatiques des éléments ayant été précédemment soulevées pour la recherche médiatique et communicationnelle.
Resumo:
Les logiciels utilisés sont Splus et R.
Resumo:
Rapport d'analyse d'intervention présenté à la Faculté des arts et sciences en vue de l'obtention du grade de Maîtrise ès sciences (M. Sc.) en psychoéducation
Resumo:
Il est possible qu’une personne qui consulte pour un problème d’utilisation de substances souffre également d’un problème associé à un état de stress post-traumatique ( ESPT ). Plusieurs auteurs croient qu’il existe un lien expliquant cette co-morbidité. Voilà pourquoi plusieurs hypothèses ont été formulées pour expliquer le lien entre un trouble tel que celui lié à l’utilisation de substance (TUS) pouvant exister avant l’ESPT, la vulnérabilité suite au TUS, ainsi que l’automédication. Plusieurs recherches proposent deux types d’interventions afin d’aider les personnes aux prises avec cette double problématique. La première consiste à traiter les deux problèmes séparément alors que la seconde, préconise une approche intégrée et simultanée. Puisque les écrits conseillent davantage un traitement intégré, il y aura une présentation d’une de ces formes de traitement nommé « À la recherche de la sécurité ». Le volet académique visait à comprendre le lien existant entre le TUS, les traumas psychologiques et l’ESPT ainsi que les différentes formes d’interventions pour aider les personnes ayant cette co-morbidité. Nous avons utilisé un module du programme « À la recherche de la sécurité » récemment traduit en français afin de vérifier sa mise en application et l’appréciation qu’en ont fait cinq usagers du Centre Dollar-Cormier-Institut universitaire sur les dépendances (CDC-IUD) ayant vécu un traumatisme au cours de leur vie. En conclusion, il sera démontré dans nos résultats que les hypothèses quant au lien de comorbidité sont effectivement présentes dans la réalité des personnes ayant un ESPT et un TUS, et qu’une intervention intégrée offre des points positifs autant pour l’usager que pour l’intervenant.