998 resultados para Econométrie et méthodes statistiques :théorie et applications


Relevância:

100.00% 100.00%

Publicador:

Resumo:

Ce diplôme présente les marchés prédictifs, qui sont un moyen d'agréger l'information en utilisant les processus à la base des marchés financiers et en proposant des contrats à termes représentant la probabilité de survenance d'une proposition. Des publications dans le domaine de la finance, du management ou de l'informatique font référence à l'utilisation des marchés prédictifs et démontrent les bons résultats obtenus par cette méthode. Nous nous sommes demandé s'il était possible de concevoir et utiliser un tel marché dans un milieu académique, pour prédire l'émergence de nouvelles théories et applications dans le domaine des communications mobiles. Pour supporter notre réflexion, nous avons mis en place un prototype qui devrait pouvoir nous permettre de tester le concept, d'étudier les fonctions de calcul de prix et les mécanismes d'agrégation de l'information. Pour débuter, nous présentons l'état de l'art en nous appuyant sur la littérature parue depuis 1988 lorsque l'University of Iowa a lancé sa plate-forme Iowa Electronic Market (IEM) dans le cadre de l'élection présidentielle Bush-Dukakis. Depuis, plusieurs chercheurs se sont penchés sur les marchés prédictifs comme instrument de prévision dans de nombreux domaines: politique, sport, cinéma, marketing, ... Nous allons comparer les marchés prédictifs à d'autres outils de prévision puis nous présenterons en détail les marchés prédictifs ainsi qu'un essai d'en formaliser les spécifications. Nous illustrerons alors ceci par des exemples tirés des principales plates-formes en activité pour le moment. S'ensuit une discussion sur l'orientation ludique des plates-formes actuelles et une présentation des utilisations que l'on pourrait en faire et qui apporteraient un réel bénéfice. Nous nous penchons alors sur l'analyse des besoins tant de l'expérimentateur que des utilisateurs. Cherchant des raisons à l'absence totale de telles plates-formes dans le cadre de la recherche, nous avons mené une série d'entretiens avec des professeurs de l'EPFL engagés dans la direction du projet MICS. Leurs réticences et craintes ont été prises en compte pour la définition des spécifications du prototype. Nous utilisons la méthode de (Spann and Skiera 2003) pour définir les spécifications de la plate-forme. Ces spécifications comprennent le choix du but prévisionnel, qui dans notre cas découle directement de notre proposition de recherche, des mécanismes financiers à la base des transactions, ainsi que des moyens incitatifs mis en place pour amener les utilisateurs à utiliser la plate-forme et surtout, pour amener les plus éclairés d'entre eux à transmettre leurs informations au marché. Ces spécifications débouchent sur la présentation de quatre cas d'utilisation. Notre objectif étant de développer un prototype pour y tester nos hypothèses, nous faisons un tour d'horizon des plates-formes à disposition et présentons l'architecture de ce dernier, basé sur les développements à la base d'USIFEX, qui n'est plus en activité depuis quatre ans. Le prototype utilise la souplesse de la programmation objet en se basant sur le langage Python dans sa version 2.3. Nous nous attardons ensuite sur la présentation de l'interface du prototype et des interactions avec les utilisateurs. Il faudra par la suite s'attacher à refondre l'interface pour le faire évoluer vers plus de convivialité, et nous permettre de guider l'utilisateur lors de ses sessions sur la plate-forme. Les parties théoriques et logicielles sous toit il nous reste encore à décrire les contrats et la manière de les formuler. A nouveau nous nous penchons sur les marchés actuels pour y tirer des enseignements qui pourraient nous être utiles. N'ayant malheureusement pas fait l'objet de publications, la définition des contrats est intimement liée avec les auteurs qui les rédigent. Nous tentons de tirer quelques enseignements provenant des contrats actifs sur les marchés des matières premières pour proposer un cadre nous permettant de formaliser la rédaction d'un contrat. Ne s'agissant que d'une proposition, il faudra encore tester et compléter ce cadre pour pouvoir s'assurer que la manière de rédiger les contrats n'influence pas sur la pertinence des prédictions. Finalement, nous esquissons les travaux qu'il reste à accomplir avant de pouvoir mener les premiers tests réels de la plate-forme. De la formulation des contrats à l'étude des mécanismes combinatoires d'agrégation de l'information en passant par les fonctions de fixation du prix. Nous revenons sur les travaux effectués dans le cadre de ce diplôme et présentons quelques idées de recherche futures.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

Cette thèse s'intéresse à l'étude des propriétés et applications de quatre familles des fonctions spéciales associées aux groupes de Weyl et dénotées $C$, $S$, $S^s$ et $S^l$. Ces fonctions peuvent être vues comme des généralisations des polynômes de Tchebyshev. Elles sont en lien avec des polynômes orthogonaux à plusieurs variables associés aux algèbres de Lie simples, par exemple les polynômes de Jacobi et de Macdonald. Elles ont plusieurs propriétés remarquables, dont l'orthogonalité continue et discrète. En particulier, il est prouvé dans la présente thèse que les fonctions $S^s$ et $S^l$ caractérisées par certains paramètres sont mutuellement orthogonales par rapport à une mesure discrète. Leur orthogonalité discrète permet de déduire deux types de transformées discrètes analogues aux transformées de Fourier pour chaque algèbre de Lie simple avec racines des longueurs différentes. Comme les polynômes de Tchebyshev, ces quatre familles des fonctions ont des applications en analyse numérique. On obtient dans cette thèse quelques formules de <>, pour des fonctions de plusieurs variables, en liaison avec les fonctions $C$, $S^s$ et $S^l$. On fournit également une description complète des transformées en cosinus discrètes de types V--VIII à $n$ dimensions en employant les fonctions spéciales associées aux algèbres de Lie simples $B_n$ et $C_n$, appelées cosinus antisymétriques et symétriques. Enfin, on étudie quatre familles de polynômes orthogonaux à plusieurs variables, analogues aux polynômes de Tchebyshev, introduits en utilisant les cosinus (anti)symétriques.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

This article analyses the influence that different criticism stages of proceedings exert in the habits of theatre attendance. The study is based on the survey carried out specifically for this research in which 210 people, who attended a theatrical representation, were interviewed in three different theatres in the city of Valencia. The study has revealed the mouth to mouth importance in the decision of attending the theatre and its stronger influence on the audiences who less frequently go to theatrical representations. The results obtained have also made clear the existence of a narrow relation between the advice effect of the theatre critics and the patterns of attendance to the theatre, just like its bigger influence between theatres with commercial orientation and those which are addressed to the broad audiences.

Relevância:

90.00% 90.00%

Publicador:

Resumo:

1. ptie. Généralités. Coordonnées curvilignes. Surfaces minima. 1887.--2. ptie. Les congruences et les équations linéaires aux dérivées partielles. Des lignes tracées sur les surfaces. 1889.--3. ptie. Lignes géodésiques et courbure géodésique. Paramètres différentiels. Déformation des surfaces. 1894.--4. ptie. Déformation infiniment petite et représentation sphérique. Notes et additions: I. Sur les méthodes d'approximations successives dans la théorie des équations différentielles, par É. Picard. II. Sur les géodésiques à intégrales quadratiques, par G. Koenigs. III. Sur la théorie des équations aux dérivées partielles du second ordre, par E. Cosserat. IV-XI. Par l'auteur. 1896.

Relevância:

80.00% 80.00%

Publicador:

Resumo:

L’électrofilage est une technique de mise en œuvre efficace et versatile qui permet la production de fibres continues d’un diamètre typique de quelques centaines de nanomètres à partir de l’application d’un haut voltage sur une solution concentrée de polymères enchevêtrés. L’évaporation extrêmement rapide du solvant et les forces d’élongation impliquées dans la formation de ces fibres leur confèrent des propriétés hors du commun et très intéressantes pour plusieurs types d’applications, mais dont on commence seulement à effleurer la surface. À cause de leur petite taille, ces matériaux ont longtemps été étudiés uniquement sous forme d’amas de milliers de fibres avec les techniques conventionnelles telles que la spectroscopie infrarouge ou la diffraction des rayons X. Nos connaissances de leur comportement proviennent donc toujours de la convolution des propriétés de l’amas de fibres et des caractéristiques spécifiques de chacune des fibres qui le compose. Les études récentes à l’échelle de la fibre individuelle ont mis en lumière des comportements inhabituels, particulièrement l’augmentation exponentielle du module avec la réduction du diamètre. L’orientation et, de manière plus générale, la structure moléculaire des fibres sont susceptibles d’être à l'origine de ces propriétés, mais d’une manière encore incomprise. L’établissement de relations structure/propriétés claires et l’identification des paramètres qui les influencent représentent des défis d’importance capitale en vue de tirer profit des caractéristiques très particulières des fibres électrofilées. Pour ce faire, il est nécessaire de développer des méthodes plus accessibles et permettant des analyses structurales rapides et approfondies sur une grande quantité de fibres individuelles présentant une large gamme de diamètre. Dans cette thèse, la spectroscopie Raman confocale est utilisée pour l’étude des caractéristiques structurales, telles que l’orientation moléculaire, la cristallinité et le désenchevêtrement, de fibres électrofilées individuelles. En premier lieu, une nouvelle méthodologie de quantification de l’orientation moléculaire par spectroscopie Raman est développée théoriquement dans le but de réduire la complexité expérimentale de la mesure, d’étendre la gamme de matériaux pour lesquels ces analyses sont possibles et d’éliminer les risques d’erreurs par rapport à la méthode conventionnelle. La validité et la portée de cette nouvelle méthode, appelée MPD, est ensuite démontrée expérimentalement. Par la suite, une méthodologie efficace permettant l’étude de caractéristiques structurales à l’échelle de la fibre individuelle par spectroscopie Raman est présentée en utilisant le poly(éthylène téréphtalate) comme système modèle. Les limites de la technique sont exposées et des stratégies expérimentales pour les contourner sont mises de l’avant. Les résultats révèlent une grande variabilité de l'orientation et de la conformation d'une fibre à l'autre, alors que le taux de cristallinité demeure systématiquement faible, démontrant l'importance et la pertinence des études statistiques de fibres individuelles. La présence de chaînes montrant un degré d’enchevêtrement plus faible dans les fibres électrofilées que dans la masse est ensuite démontrée expérimentalement pour la première fois par spectroscopie infrarouge sur des amas de fibres de polystyrène. Les conditions d'électrofilage favorisant ce phénomène structural, qui est soupçonné d’influencer grandement les propriétés des fibres, sont identifiées. Finalement, l’ensemble des méthodologies développées sont appliquées sur des fibres individuelles de polystyrène pour l’étude approfondie de l’orientation et du désenchevêtrement sur une large gamme de diamètres et pour une grande quantité de fibres. Cette dernière étude permet l’établissement de la première relation structure/propriétés de ces matériaux, à l’échelle individuelle, en montrant clairement le lien entre l’orientation moléculaire, le désenchevêtrement et le module d'élasticité des fibres.

Relevância:

80.00% 80.00%

Publicador:

Resumo:

L’électrofilage est une technique de mise en œuvre efficace et versatile qui permet la production de fibres continues d’un diamètre typique de quelques centaines de nanomètres à partir de l’application d’un haut voltage sur une solution concentrée de polymères enchevêtrés. L’évaporation extrêmement rapide du solvant et les forces d’élongation impliquées dans la formation de ces fibres leur confèrent des propriétés hors du commun et très intéressantes pour plusieurs types d’applications, mais dont on commence seulement à effleurer la surface. À cause de leur petite taille, ces matériaux ont longtemps été étudiés uniquement sous forme d’amas de milliers de fibres avec les techniques conventionnelles telles que la spectroscopie infrarouge ou la diffraction des rayons X. Nos connaissances de leur comportement proviennent donc toujours de la convolution des propriétés de l’amas de fibres et des caractéristiques spécifiques de chacune des fibres qui le compose. Les études récentes à l’échelle de la fibre individuelle ont mis en lumière des comportements inhabituels, particulièrement l’augmentation exponentielle du module avec la réduction du diamètre. L’orientation et, de manière plus générale, la structure moléculaire des fibres sont susceptibles d’être à l'origine de ces propriétés, mais d’une manière encore incomprise. L’établissement de relations structure/propriétés claires et l’identification des paramètres qui les influencent représentent des défis d’importance capitale en vue de tirer profit des caractéristiques très particulières des fibres électrofilées. Pour ce faire, il est nécessaire de développer des méthodes plus accessibles et permettant des analyses structurales rapides et approfondies sur une grande quantité de fibres individuelles présentant une large gamme de diamètre. Dans cette thèse, la spectroscopie Raman confocale est utilisée pour l’étude des caractéristiques structurales, telles que l’orientation moléculaire, la cristallinité et le désenchevêtrement, de fibres électrofilées individuelles. En premier lieu, une nouvelle méthodologie de quantification de l’orientation moléculaire par spectroscopie Raman est développée théoriquement dans le but de réduire la complexité expérimentale de la mesure, d’étendre la gamme de matériaux pour lesquels ces analyses sont possibles et d’éliminer les risques d’erreurs par rapport à la méthode conventionnelle. La validité et la portée de cette nouvelle méthode, appelée MPD, est ensuite démontrée expérimentalement. Par la suite, une méthodologie efficace permettant l’étude de caractéristiques structurales à l’échelle de la fibre individuelle par spectroscopie Raman est présentée en utilisant le poly(éthylène téréphtalate) comme système modèle. Les limites de la technique sont exposées et des stratégies expérimentales pour les contourner sont mises de l’avant. Les résultats révèlent une grande variabilité de l'orientation et de la conformation d'une fibre à l'autre, alors que le taux de cristallinité demeure systématiquement faible, démontrant l'importance et la pertinence des études statistiques de fibres individuelles. La présence de chaînes montrant un degré d’enchevêtrement plus faible dans les fibres électrofilées que dans la masse est ensuite démontrée expérimentalement pour la première fois par spectroscopie infrarouge sur des amas de fibres de polystyrène. Les conditions d'électrofilage favorisant ce phénomène structural, qui est soupçonné d’influencer grandement les propriétés des fibres, sont identifiées. Finalement, l’ensemble des méthodologies développées sont appliquées sur des fibres individuelles de polystyrène pour l’étude approfondie de l’orientation et du désenchevêtrement sur une large gamme de diamètres et pour une grande quantité de fibres. Cette dernière étude permet l’établissement de la première relation structure/propriétés de ces matériaux, à l’échelle individuelle, en montrant clairement le lien entre l’orientation moléculaire, le désenchevêtrement et le module d'élasticité des fibres.

Relevância:

80.00% 80.00%

Publicador:

Resumo:

Mode of access: Internet.

Relevância:

70.00% 70.00%

Publicador:

Resumo:

Résumé de la thèse L'évolution des systèmes policiers donne une place prépondérante à l'information et au renseignement. Cette transformation implique de développer et de maintenir un ensemble de processus permanent d'analyse de la criminalité, en particulier pour traiter des événements répétitifs ou graves. Dans une organisation aux ressources limitées, le temps consacré au recueil des données, à leur codification et intégration, diminue le temps disponible pour l'analyse et la diffusion de renseignements. Les phases de collecte et d'intégration restent néanmoins indispensables, l'analyse n'étant pas possible sur des données volumineuses n'ayant aucune structure. Jusqu'à présent, ces problématiques d'analyse ont été abordées par des approches essentiellement spécialisées (calculs de hot-sports, data mining, ...) ou dirigées par un seul axe (par exemple, les sciences comportementales). Cette recherche s'inscrit sous un angle différent, une démarche interdisciplinaire a été adoptée. L'augmentation continuelle de la quantité de données à analyser tend à diminuer la capacité d'analyse des informations à disposition. Un bon découpage (classification) des problèmes rencontrés permet de délimiter les analyses sur des données pertinentes. Ces classes sont essentielles pour structurer la mémoire du système d'analyse. Les statistiques policières de la criminalité devraient déjà avoir répondu à ces questions de découpage de la délinquance (classification juridique). Cette décomposition a été comparée aux besoins d'un système de suivi permanent dans la criminalité. La recherche confirme que nos efforts pour comprendre la nature et la répartition du crime se butent à un obstacle, à savoir que la définition juridique des formes de criminalité n'est pas adaptée à son analyse, à son étude. Depuis près de vingt ans, les corps de police de Suisse romande utilisent et développent un système de classification basé sur l'expérience policière (découpage par phénomène). Cette recherche propose d'interpréter ce système dans le cadre des approches situationnelles (approche théorique) et de le confronter aux données « statistiques » disponibles pour vérifier sa capacité à distinguer les formes de criminalité. La recherche se limite aux cambriolages d'habitations, un délit répétitif fréquent. La théorie des opportunités soutien qu'il faut réunir dans le temps et dans l'espace au minimum les trois facteurs suivants : un délinquant potentiel, une cible intéressante et l'absence de gardien capable de prévenir ou d'empêcher le passage à l'acte. Ainsi, le délit n'est possible que dans certaines circonstances, c'est-à-dire dans un contexte bien précis. Identifier ces contextes permet catégoriser la criminalité. Chaque cas est unique, mais un groupe de cas montre des similitudes. Par exemple, certaines conditions avec certains environnements attirent certains types de cambrioleurs. Deux hypothèses ont été testées. La première est que les cambriolages d'habitations ne se répartissent pas uniformément dans les classes formées par des « paramètres situationnels » ; la deuxième que des niches apparaissent en recoupant les différents paramètres et qu'elles correspondent à la classification mise en place par la coordination judiciaire vaudoise et le CICOP. La base de données vaudoise des cambriolages enregistrés entre 1997 et 2006 par la police a été utilisée (25'369 cas). Des situations spécifiques ont été mises en évidence, elles correspondent aux classes définies empiriquement. Dans une deuxième phase, le lien entre une situation spécifique et d'activité d'un auteur au sein d'une même situation a été vérifié. Les observations réalisées dans cette recherche indiquent que les auteurs de cambriolages sont actifs dans des niches. Plusieurs auteurs sériels ont commis des délits qui ne sont pas dans leur niche, mais le nombre de ces infractions est faible par rapport au nombre de cas commis dans la niche. Un système de classification qui correspond à des réalités criminelles permet de décomposer les événements et de mettre en place un système d'alerte et de suivi « intelligent ». Une nouvelle série dans un phénomène sera détectée par une augmentation du nombre de cas de ce phénomène, en particulier dans une région et à une période donnée. Cette nouvelle série, mélangée parmi l'ensemble des délits, ne serait pas forcément détectable, en particulier si elle se déplace. Finalement, la coopération entre les structures de renseignement criminel opérationnel en Suisse romande a été améliorée par le développement d'une plateforme d'information commune et le système de classification y a été entièrement intégré.

Relevância:

70.00% 70.00%

Publicador:

Resumo:

L'objet de ce travail est l'évaluation de l'activité de radionucléides présents à l'état de traces, par exemple dans l'environnement. Lorsque les mesures sont de courte durée, ou si les sources sont peu actives, l'analyse statistique standard ne donne plus une estimation fiable de l'activité et de son incertitude. L'introduction du concept bayesien d'a priori permet de modéliser l'information à disposition de l'observateur avant qu'il effectue la mesure. Cette information conduit à une estimation plus cohérente des grandeurs physiques recherchées. Le cadre de la théorie est tout d'abord présenté, définissant les concepts d'état, d'observation et de décision. La mesure physique est traduite par un modèle statistique qui est une probabilité de transition des états vers les observations. L'information de Fisher et celle de Shannon-Kullback sont introduites dans le but d'obtenir les a priori nécessaires au théorème de Bayes. Les modèles propres à la mesure de la radioactivité sont ensuite traités. Si l'on peut considérer l'activité comme constante, le modèle est celui de Poisson et conduit à des a priori de type gamma. Pour les grandes activités, ces deux lois se rapprochent des gaussiennes et l'on retrouve l'analyse statistique classique. Lorsque la décroissance du nombre de noyaux n'est plus négligeable, ou lors de l'évaluation de certains temps d'attente, d'autres modèles sont développés. Quelques applications sont présentées ensuite, notamment une définition cohérente des intervalles de confiance et l'estimation de l'activité de radionucléides à schéma complexe par spectrométrie gamma, où l'obtention de tout un spectre permet une analyse multidimensionnelle. Le paradigme bayesien conduit à une répartition complète et globale pour l'état du système physique mesuré. L'observateur obtient ainsi la meilleure estimation possible de l'état basée sur son modèle d'expérience et l'information préalable en sa possession.

Relevância:

70.00% 70.00%

Publicador:

Resumo:

Ce mémoire s'intéresse à la vision par ordinateur appliquée à des projets d'art technologique. Le sujet traité est la calibration de systèmes de caméras et de projecteurs dans des applications de suivi et de reconstruction 3D en arts visuels et en art performatif. Le mémoire s'articule autour de deux collaborations avec les artistes québécois Daniel Danis et Nicolas Reeves. La géométrie projective et les méthodes de calibration classiques telles que la calibration planaire et la calibration par géométrie épipolaire sont présentées pour introduire les techniques utilisées dans ces deux projets. La collaboration avec Nicolas Reeves consiste à calibrer un système caméra-projecteur sur tête robotisée pour projeter des vidéos en temps réel sur des écrans cubiques mobiles. En plus d'appliquer des méthodes de calibration classiques, nous proposons une nouvelle technique de calibration de la pose d'une caméra sur tête robotisée. Cette technique utilise des plans elliptiques générés par l'observation d'un seul point dans le monde pour déterminer la pose de la caméra par rapport au centre de rotation de la tête robotisée. Le projet avec le metteur en scène Daniel Danis aborde les techniques de calibration de systèmes multi-caméras. Pour son projet de théâtre, nous avons développé un algorithme de calibration d'un réseau de caméras wiimotes. Cette technique basée sur la géométrie épipolaire permet de faire de la reconstruction 3D d'une trajectoire dans un grand volume à un coût minime. Les résultats des techniques de calibration développées sont présentés, de même que leur utilisation dans des contextes réels de performance devant public.

Relevância:

70.00% 70.00%

Publicador:

Resumo:

The attached file is created with Scientific Workplace Latex

Relevância:

70.00% 70.00%

Publicador:

Resumo:

Ce mémoire présente une évaluation des différentes méthodes utilisées en lexicographie afin d’identifier les liens lexicaux dans les dictionnaires où sont répertoriées des collocations. Nous avons ici comparé le contenu de fiches du DiCo, un dictionnaire de dérivés sémantiques et de collocations créé selon les principes de la lexicologie explicative et combinatoire, avec les listes de cooccurrents générées automatiquement à partir du corpus Le Monde 2002. Notre objectif est ici de proposer des améliorations méthodologiques à la création de fiches de dictionnaire du type du DiCo, c’est-à-dire, des dictionnaires d’approche qualitative, où la collocation est définie comme une association récurrente et arbitraire entre deux items lexicaux et où les principaux outils méthodologiques utilisés sont la compétence linguistique de ses lexicographes et la consultation manuelle de corpus de textes. La consultation de listes de cooccurrents est une pratique associée habituellement à une approche lexicographique quantitative, qui définit la collocation comme une association entre deux items lexicaux qui est plus fréquente, dans un corpus, que ce qui pourrait être attendu si ces deux items lexicaux y étaient distribués de façon aléatoire. Nous voulons mesurer ici dans quelle mesure les outils utilisés traditionnellement dans une approche quantitative peuvent être utiles à la création de fiches lexicographiques d’approche qualitative, et de quelle façon leur utilisation peut être intégrée à la méthodologie actuelle de création de ces fiches.