8 resultados para Bass Strait
em Université de Montréal, Canada
Resumo:
Cet article illustre l’applicabilité des méthodes de rééchantillonnage dans le cadre des tests multiples (simultanés), pour divers problèmes économétriques. Les hypothèses simultanées sont une conséquence habituelle de la théorie économique, de sorte que le contrôle de la probabilité de rejet de combinaisons de tests est un problème que l’on rencontre fréquemment dans divers contextes économétriques et statistiques. À ce sujet, on sait que le fait d’ignorer le caractère conjoint des hypothèses multiples peut faire en sorte que le niveau de la procédure globale dépasse considérablement le niveau désiré. Alors que la plupart des méthodes d’inférence multiple sont conservatrices en présence de statistiques non-indépendantes, les tests que nous proposons visent à contrôler exactement le niveau de signification. Pour ce faire, nous considérons des critères de test combinés proposés initialement pour des statistiques indépendantes. En appliquant la méthode des tests de Monte Carlo, nous montrons comment ces méthodes de combinaison de tests peuvent s’appliquer à de tels cas, sans recours à des approximations asymptotiques. Après avoir passé en revue les résultats antérieurs sur ce sujet, nous montrons comment une telle méthodologie peut être utilisée pour construire des tests de normalité basés sur plusieurs moments pour les erreurs de modèles de régression linéaires. Pour ce problème, nous proposons une généralisation valide à distance finie du test asymptotique proposé par Kiefer et Salmon (1983) ainsi que des tests combinés suivant les méthodes de Tippett et de Pearson-Fisher. Nous observons empiriquement que les procédures de test corrigées par la méthode des tests de Monte Carlo ne souffrent pas du problème de biais (ou sous-rejet) souvent rapporté dans cette littérature – notamment contre les lois platikurtiques – et permettent des gains sensibles de puissance par rapport aux méthodes combinées usuelles.
Resumo:
Une nouvelle notion d'enlacement pour les paires d'ensembles $A\subset B$, $P\subset Q$ dans un espace de Hilbert de type $X=Y\oplus Y^{\perp}$ avec $Y$ séparable, appellée $\tau$-enlacement, est définie. Le modèle pour cette définition est la généralisation de l'enlacement homotopique et de l'enlacement au sens de Benci-Rabinowitz faite par Frigon. En utilisant la théorie du degré développée dans un article de Kryszewski et Szulkin, plusieurs exemples de paires $\tau$-enlacées sont donnés. Un lemme de déformation est établi et utilisé conjointement à la notion de $\tau$-enlacement pour prouver un théorème d'existence de point critique pour une certaine classe de fonctionnelles sur $X$. De plus, une caractérisation de type minimax de la valeur critique correspondante est donnée. Comme corollaire de ce théorème, des conditions sont énoncées sous lesquelles l'existence de deux points critiques distincts est garantie. Deux autres théorèmes de point critiques sont démontrés dont l'un généralise le théorème principal de l'article de Kryszewski et Szulkin mentionné ci-haut.
Resumo:
Mémoire numérisé par la Division de la gestion de documents et des archives de l'Université de Montréal
Resumo:
Ce mémoire présente un patron d’architecture permettant, dans un contexte orientéobjet, l’exploitation d’objets appartenant simultanément à plusieurs hiérarchies fonctionnelles. Ce patron utilise un reasoner basé sur les logiques de description (web sémantique) pour procéder à la classification des objets dans les hiérarchies. La création des objets est simplifiée par l’utilisation d’un ORM (Object Relational Mapper). Ce patron permet l’utilisation effective du raisonnement automatique dans un contexte d’applications d’entreprise. Les concepts requis pour la compréhension du patron et des outils sont présentés. Les conditions d’utilisation du patron sont discutées ainsi que certaines pistes de recherche pour les élargir. Un prototype appliquant le patron dans un cas simple est présenté. Une méthodologie accompagne le patron. Finalement, d’autres utilisations potentielles des logiques de description dans le même contexte sont discutées.
Resumo:
FTY720 (aussi connu sous le nom de Fingolimod ou Gilenya) agit sur les récepteurs sphingosine-1-phosphate (S1P) et induit la suppression du système immunitaire (immunosuppression). Cette molécule est reconnue pour avoir une activité contre plusieurs cellules cancéreuses. Cette activité est indépendante de l’action sur les récepteurs S1P et on attribue plutôt la mort (apoptose) des cellules cancéreuse à la capacité que possède la molécule à réduire le transport des nutriments dans la cellule. Toutefois, malgré ses nombreux avantages, FTY720 ne peut pas être utilisé afin de traiter des humains puisque l’activation secondaire des récepteurs S1P1 et S1P3 mènent à une diminution du rythme cardiaque (bradycardie) chez les patients. Notre groupe s’est donc concentré sur la synthèse d’analogues qui potentiellement n’activeraient pas le récepteur S1P tout en gardant une activité biologique contre plusieurs cellules cancéreuses. Malgré le fait que nos analogues agissent également sur la diminution du transport des nutriments dans les cellules, nous ne connaissons pas le mécanisme d’action par lequel ceux-ci agissent. Au passage, le projet de recherche ci-présenté nous aura par ailleurs permis de développer une grande variété de sondes photo-actives dans l’espoir d’isoler une ou plusieurs protéines qui seraient impliquées dans le mécanisme d’action.
Resumo:
Depuis une quinzaine d’années, on assiste en Belgique francophone au développement d’une politique d’évaluation externe des écoles. Notre étude analyse la réception de cette politique par les acteurs locaux (directeurs et enseignants d’écoles primaires) et intermédiaires (inspecteurs) et montre comment les outils de régulation basés sur les connaissances mis en place par ces acteurs affectent la réception et la légitimité de la politique d’évaluation dans son ensemble. À l’aide de la sociologie de la traduction (Callon & Latour) et de la théorie néoinstitutionnaliste, nous comparons deux modes de construction et de mise en oeuvre de cette politique dans deux zones d’inspection. Dans la première, le dispositif repose pour l’essentiel sur la bureaucratie, tandis que dans la seconde la politique est construite par un réseau d’acteurs locaux et intermédiaires. Nous montrons que 1) les rôles et les stratégies des acteurs intermédiaires diffèrent considérablement ; 2) les différences constatées dans la construction de la politique d’évaluation (co-construction des outils par un réseau d’acteurs intermédiaires d’un côté, mise en oeuvre hiérarchique et bureaucratique de l’autre) sont liées aux différents effets des outils de régulation sur les pratiques des enseignants et sur la légitimité de cette politique.
Resumo:
Mémoire numérisé par la Direction des bibliothèques de l'Université de Montréal.
Resumo:
Cet essai est présenté en tant que mémoire de maîtrise dans le cadre du programme de droit des technologies de l’information. Ce mémoire traite de différents modèles d’affaires qui ont pour caractéristique commune de commercialiser les données dans le contexte des technologies de l’information. Les pratiques commerciales observées sont peu connues et l’un des objectifs est d’informer le lecteur quant au fonctionnement de ces pratiques. Dans le but de bien situer les enjeux, cet essai discutera d’abord des concepts théoriques de vie privée et de protection des renseignements personnels. Une fois ce survol tracé, les pratiques de « data brokerage », de « cloud computing » et des solutions « analytics » seront décortiquées. Au cours de cette description, les enjeux juridiques soulevés par chaque aspect de la pratique en question seront étudiés. Enfin, le dernier chapitre de cet essai sera réservé à deux enjeux, soit le rôle du consentement et la sécurité des données, qui ne relèvent pas d’une pratique commerciale spécifique, mais qui sont avant tout des conséquences directes de l’évolution des technologies de l’information.