734 resultados para Approche combinatoire


Relevância:

10.00% 10.00%

Publicador:

Resumo:

Cette recherche porte sur l’interface entre la sémantique lexicale et la syntaxe, et elle s’inscrit dans le cadre du projet de base lexicale DiCo (acronyme pour Dictionnaire de combinatoire) à l’Observatoire de Linguistique Sens-Texte [OLST] de l’Université de Montréal. Le projet découle d'une volonté d'inscrire de façon concise et complète, à même le dictionnaire, le comportement syntaxique typique à chaque unité lexicale. Dans cette optique, nous encodons la cooccurrence des lexies nominales du DiCo avec leurs actants à l'intérieur d'un tableau de régime lexical (aussi connu sous le nom de schéma valenciel, structure argumentale, cadre de sous-catégorisation, structure prédicats-arguments, etc.), en notant entre autres les dépendances syntaxiques de surface impliquées. Dans ce mémoire, nous présentons les propriétés syntaxiques d'une dépendance nominale du français, celle que nous avons nommée attributive adnominale, de façon à exposer une méthodologie d'identification et de caractérisation des dépendances syntaxiques de surface. Nous donnons également la liste des dépendances nominales régies identifiées au cours de ce travail. Par la suite, nous exposons la création d'une base de données de régimes généralisés du français nommée CARNAVAL. Finalement, nous discutons des applications possibles de notre travail, particulièrement en ce qui a trait à la création d'une typologie des régimes lexicaux du français.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

De nos jours, les applications de grande taille sont développées à l’aide de nom- breux cadres d’applications (frameworks) et intergiciels (middleware). L’utilisation ex- cessive d’objets temporaires est un problème de performance commun à ces applications. Ce problème est appelé “object churn”. Identifier et comprendre des sources d’“object churn” est une tâche difficile et laborieuse, en dépit des récentes avancées dans les tech- niques d’analyse automatiques. Nous présentons une approche visuelle interactive conçue pour aider les développeurs à explorer rapidement et intuitivement le comportement de leurs applications afin de trouver les sources d’“object churn”. Nous avons implémenté cette technique dans Vasco, une nouvelle plate-forme flexible. Vasco se concentre sur trois principaux axes de con- ception. Premièrement, les données à visualiser sont récupérées dans les traces d’exécu- tion et analysées afin de calculer et de garder seulement celles nécessaires à la recherche des sources d’“object churn”. Ainsi, des programmes de grande taille peuvent être vi- sualisés tout en gardant une représentation claire et compréhensible. Deuxièmement, l’utilisation d’une représentation intuitive permet de minimiser l’effort cognitif requis par la tâche de visualisation. Finalement, la fluidité des transitions et interactions permet aux utilisateurs de garder des informations sur les actions accomplies. Nous démontrons l’efficacité de l’approche par l’identification de sources d’“object churn” dans trois ap- plications utilisant intensivement des cadres d’applications framework-intensive, inclu- ant un système commercial.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Les premières études recensées ayant traité de la co-délinquance ont plus de cent ans. Comme il s’agit d’un sujet qui a de l’histoire, il y a eu une grande évolution dans la façon d’aborder la question et dans les méthodologies employées. Mais, ce n’est que depuis quelques années que la co-délinquance est étudiée par l’entremise de données d’arrestations policières et c’est ce type de données qui sera utilisé pour répondre à l’objectif principal, celui-ci étant la détermination des conditions expliquant le recours ou non à la co-délinquance pour commettre une infraction criminelle. De plus, pour répondre à notre objectif de recherche, nous avons opté pour une théorie structurante du crime, approche qui n’avait jamais été utilisé auparavant dans les études sur la co-délinquance. Comme méthodologie, nous avons utilisé un échantillon composé de 9 103 participations criminelles, de 8 243 événements distincts et de 3 356 individus et plusieurs prédicteurs ont été analysés afin de déterminer lesquels expliquent le mieux la co-délinquance. L’âge, le genre, les antécédents criminels, l’urbanité et le type de crimes sont toutes des variables qui ont été considérées. L’urbanité représente une nouveauté dans ce type de recherche, puisque nous avons recensé que très peu d’études ayant abordées la question. Alors, que pour le type de crime, nous l’avons détaillé, comme aucune étude sur la co-délinquance ne l’a fait auparavant (23 catégories d’infractions). Ce détail nous permet donc de bien cibler l’impact de chaque délit sur le recours à la co-délinquance. Le résultat émergeant des analyses de régression logistique est que le recours à la co-délinquance s’explique principalement par le type de crime commis, certains actes criminels sont plus propices à la co-délinquance que d’autres. Nous constatons également que les autres variables analysées ont très peu ou pas d’impact sur le recours à la co-délinquance, que ce soit l’âge, le genre, les antécédents criminels ou même l’urbanité.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Objectifs: Cette étude a documenté la collaboration intersectorielle entre les agents de santé communautaires (ASC) et les enseignants visant à combattre la violence à l’égard des femmes et des filles à Vulindlela, une communauté rurale Sud-Africaine. La collaboration entre ces acteurs, les facteurs qui influencent leur collaboration et les avenues possibles pour une amélioration de cette collaboration ont été explorés. Méthodes: Six ASC et cinq enseignants ont pris part à cette recherche participative qui a inclut l'utilisation du dessin comme méthodologie visuelle. La collecte de données a été réalisée en quatre phases, avec un total de huit entretiens de groupes. La stratégie d’analyse principale a inclus une approche dirigée du contenu narratif et une approche de comparaison constante. Résultats: Le système de collaboration entre les enseignants et les ASC manque de définition et ces acteurs ne peuvent donc en faire l’utilisation. Par conséquent la collaboration actuelle entre ces acteurs a été jugée peu développé, impromptue et informelle. De nombreuses contraintes à la collaboration ont été identifiées, y compris le manque de motivation de la part des enseignants, la nature des relations entre les acteurs, et la capacité individuelle limitée des ASC. Conclusion: Compte tenu des nombreuses contraintes à la collaboration entre ces ASC et les enseignants, il n'est pas évident que cette collaboration conduira aux résultats espérés. Dans l'absence de motivation suffisante et d’une prise de conscience réaliste des défis par les acteurs eux-mêmes, les initiatives externes pour améliorer la collaboration sont peu susceptibles de succès.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

L'objectif ultime en géomorphologie fluviale est d'expliquer les formes des cours d'eau et leur évolution temporelle et spatiale. La multiplication des études nous a mené à la réalisation que les systèmes géomorphologiques sont complexes. Les formes observées sont plus que la somme des processus individuels qui les régissent en raison d’interactions et de rétroactions non-linéaires à de multiples échelles spatiales et temporelles. Dans ce contexte, le but général de la thèse est de proposer et de tester de nouvelles avenues de recherche afin de mieux appréhender la complexité des dynamiques fluviales en utilisant des approches méthodologiques et analytiques mettant l’accent sur les interactions entre l’écoulement, le transport de sédiments en charge fond et la morphologie du lit en rivière graveleuse. Cette orientation découle du constat que les paradigmes actuels en géomorphologie fluviale n’arrivent pas à expliquer adéquatement la variabilité naturelle du transport en charge de fond ainsi que des formes du lit qui en résultent. Cinq pistes de réflexion sont développées sous forme d’articles basés sur des études de cas : 1. L'intégration des échelles de variation de l'écoulement permet d’insérer la notion de structures turbulentes dans des pulsations de plus grande échelle et d'améliorer la compréhension de la variabilité du transport de sédiments. 2. La quantification des taux de changement de l’écoulement (accélération /décélération) au cours d’une crue permet d’expliquer la variabilité des flux de transport en charge fond autant que la magnitude de l’écoulement. 3. L’utilisation de techniques de mesures complémentaires révèle une nouvelle dynamique du lit des rivières graveleuses, la dilatation et la contraction du lit suite à une crue. 4. La remise en cause du fait généralement accepté que le transport en charge de fond est corrélé positivement à l'intensité des modifications morphologiques en raison d’un problème associé aux échelles différentes des processus en cause. 5. L’approche systémique des dynamiques fluviales par l’utilisation d’analyses multivariées permet d’appréhender la complexité des dynamiques de rétroactions linéaires et non-linéaires dans l’évolution d’un chenal et d’illustrer l’importance de l’historique récent des changements géomorphologiques en réponse aux crues. Cette thèse se veut une avancée conceptuelle issue d'une profonde réflexion sur les approches classiques que l'on utilise en géomorphologie fluviale depuis plusieurs décennies. Elle est basée sur un jeu de données unique récolté lors du suivi intensif de 21 évènements de crue dans un petit cours d’eau à lit de graviers, le ruisseau Béard (Québec). Le protocole expérimental axé sur la simultanéité des mesures de l’écoulement, de la morphologie du lit et du transport de sédiments en charge de fond a permis de centrer la recherche directement sur les interactions entre les processus plutôt que sur les processus individuels, une approche rarement utilisée en géomorphologie fluviale. Chacun des chapitres illustre un nouveau concept ou une nouvelle approche permettant de résoudre certaines des impasses rencontrées actuellement en géomorphologie fluviale. Ces travaux ont des implications importantes pour la compréhension de la dynamique des lits de rivières et des habitats fluviaux et servent de point de départ pour de nouveaux développements.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

L’objectif de cette recherche est de démontrer que les décisions arbitrales de la Chambre de commerce internationale peuvent être considérées comme une source potentielle de droit au Canada. Il existe actuellement une incertitude quant au droit matériel utilisé en arbitrage international pour résoudre les différends commerciaux. Bien que l’utilisation de la lex mercatoria pour résoudre un litige soit une option, elle se heurte à de nombreuses incertitudes terminologiques et conceptuelles. L’utilisation d’une approche méthodologique de la lex mercatoria permettrait une classification de ses sources en deux branches: (1) le droit statutaire international et (2) le stare decisis des tribunaux d’arbitrage commercial international. Une telle approche méthodologique conférerait plus de certitude quant à l’application d’un droit uniforme. De plus, elle faciliterait l’étude de l’interlégalité entre les règles de la lex mercatoria et le droit matériel interne. Plus particulièrement, elle permet de comparer les similitudes et les différences des règles du droit matériel entre les décisions arbitrales internationales, le droit statutaire international et les juridictions canadiennes de common law et de droit civil. Cette comparaison rend possible une évaluation de l’influence potentielle des décisions arbitrales de la Chambre de commerce internationale sur le droit matériel canadien et si cette influence est plus importante en droit civil ou en common law.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Ce mémoire a été réalisé dans le cadre d'un séjour de recherche à l'Université d'État des Sciences Humaines de Russie (RGGU), Moscou.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Le syndrome de détresse respiratoire aiguë (SDRA) se développe suite à une atteinte pulmonaire lésionnelle, induisant un œdème et une inflammation excessive, généralement suivis d’une réparation atypique menant à la fibrose. Malgré de signifiants progrès dans les traitements, la mortalité reste élevée : ~ 40 %. Mon hypothèse de travail est que l’atténuation de l’œdème ou de la réponse inflammatoire pourrait freiner le développement ou la sévérité de la phase exsudative. Nous avons évalué cette hypothèse à l’aide d’un modèle de phase exsudative du SDRA, i.e. instillation intra-trachéale de bléomycine, chez les souris.  La modulation des fluides alvéolaires est étudiée avec des souris transgénique (Tg) pour le canal ENaC, qui sont sensibles à la formation d’un œdème. Cependant, ces souris Tg ne sont pas plus sensibles au développement de la phase exsudative en condition lésionnelle (bléomycine). Nous avons déterminé par une étude électrophysiologique des cellules épithéliales alvéolaires de type II (AT II) que ce n’est pas lié à une inhibition par la bléomycine de la fonction du canal ENaC.  Le traitement de la réponse inflammatoire associée au SDRA par des glucocorticoïdes est une thérapie potentielle mais controversée. Les glucocorticoïdes dans notre modèle murin ne réduisent pas la sévérité des lésions. Nous avons pu déterminé lors d’expériences in vitro que ce serait dû à une réduction de la capacité de réparation des AT II. En résumé :  La modulation du canal ENaC ne modifie pas le développement de la phase exsudative, suggérant que la régulation de l’œdème n’est pas suffisante pour modifier l’évolution du SDRA.  La modulation de l’inflammation par les glucocorticoïdes est ineffective, possiblement à cause d’une altération de la réparation. Mon étude suggère que le traitement de la phase exsudative du SDRA est complexe. En effet, la régulation de l’œdème ou de l’inflammation de façon isolée ne peut pas modifier l’évolution du SDRA. L'hétérogénéité des sources du SDRA et la redondance des mécanismes cellulaires impliqués dans l’évolution des lésions pulmonaires suggèrent que le traitement nécessitera une approche visant plusieurs cibles mécanistiques afin d’en accélérer la résolution.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Cette thèse a pour objectif d’examiner l’œuvre romanesque du Togolais Sami Tchak (de son vrai nom Sadamba Tcha Koura). Parmi les écrivains africains francophones dits de la nouvelle génération, il se distingue par une esthétique qui s’inscrit essentiellement dans une dynamique transgressive et transculturelle. À travers un recours systématique au matériau de la sexualité, Sami Tchak construit une poétique, qui, au-delà de son audace transgressive, de son aspect délibérément choquant et provocateur, s’attache à interroger l’existence humaine, à mettre en évidence les misères et les faiblesses de l’Homme. En outre, cette poétique de la sexualité est porteuse de sens du social : elle sert de prétexte à l’auteur pour dépeindre l’existence de ceux qu’il appelle des « vies sans horizon », des « vies sans relief », mais aussi pour déconstruire la doxa. Mû par le désir de s’imposer comme une voix individuelle, de s’éloigner du dogme enfermant de l’africanité, Sami Tchak choisit de marquer son propre territoire littéraire par le biais d’une démarche transculturelle, en ancrant son œuvre dans la mémoire de la littérature. Cet ancrage se double d’une construction polysémique de l’espace. La présente étude s’appuie sur une triple approche, intertextuelle, sociocritique et transculturelle. Par exemple, elle montrera que, contrairement à une certaine critique qui le soupçonne de tourner le dos à l’Afrique, le projet romanesque de Sami Tchak procède d’une conscience à la fois africaine et universelle : même dans les romans qui se déroulent dans l’espace latino-américain, on remarquera que l’auteur possède l’art d’évoquer l’Afrique, surtout à travers des discours allusifs, implicites.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Essai critique présenté à la Faculté des arts et des sciences en vue de l'obtention du grade de Maîtrise en service social (M.Sc.)

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Ma thèse est composée de trois chapitres reliés à l'estimation des modèles espace-état et volatilité stochastique. Dans le première article, nous développons une procédure de lissage de l'état, avec efficacité computationnelle, dans un modèle espace-état linéaire et gaussien. Nous montrons comment exploiter la structure particulière des modèles espace-état pour tirer les états latents efficacement. Nous analysons l'efficacité computationnelle des méthodes basées sur le filtre de Kalman, l'algorithme facteur de Cholesky et notre nouvelle méthode utilisant le compte d'opérations et d'expériences de calcul. Nous montrons que pour de nombreux cas importants, notre méthode est plus efficace. Les gains sont particulièrement grands pour les cas où la dimension des variables observées est grande ou dans les cas où il faut faire des tirages répétés des états pour les mêmes valeurs de paramètres. Comme application, on considère un modèle multivarié de Poisson avec le temps des intensités variables, lequel est utilisé pour analyser le compte de données des transactions sur les marchés financières. Dans le deuxième chapitre, nous proposons une nouvelle technique pour analyser des modèles multivariés à volatilité stochastique. La méthode proposée est basée sur le tirage efficace de la volatilité de son densité conditionnelle sachant les paramètres et les données. Notre méthodologie s'applique aux modèles avec plusieurs types de dépendance dans la coupe transversale. Nous pouvons modeler des matrices de corrélation conditionnelles variant dans le temps en incorporant des facteurs dans l'équation de rendements, où les facteurs sont des processus de volatilité stochastique indépendants. Nous pouvons incorporer des copules pour permettre la dépendance conditionnelle des rendements sachant la volatilité, permettant avoir différent lois marginaux de Student avec des degrés de liberté spécifiques pour capturer l'hétérogénéité des rendements. On tire la volatilité comme un bloc dans la dimension du temps et un à la fois dans la dimension de la coupe transversale. Nous appliquons la méthode introduite par McCausland (2012) pour obtenir une bonne approximation de la distribution conditionnelle à posteriori de la volatilité d'un rendement sachant les volatilités d'autres rendements, les paramètres et les corrélations dynamiques. Le modèle est évalué en utilisant des données réelles pour dix taux de change. Nous rapportons des résultats pour des modèles univariés de volatilité stochastique et deux modèles multivariés. Dans le troisième chapitre, nous évaluons l'information contribuée par des variations de volatilite réalisée à l'évaluation et prévision de la volatilité quand des prix sont mesurés avec et sans erreur. Nous utilisons de modèles de volatilité stochastique. Nous considérons le point de vue d'un investisseur pour qui la volatilité est une variable latent inconnu et la volatilité réalisée est une quantité d'échantillon qui contient des informations sur lui. Nous employons des méthodes bayésiennes de Monte Carlo par chaîne de Markov pour estimer les modèles, qui permettent la formulation, non seulement des densités a posteriori de la volatilité, mais aussi les densités prédictives de la volatilité future. Nous comparons les prévisions de volatilité et les taux de succès des prévisions qui emploient et n'emploient pas l'information contenue dans la volatilité réalisée. Cette approche se distingue de celles existantes dans la littérature empirique en ce sens que ces dernières se limitent le plus souvent à documenter la capacité de la volatilité réalisée à se prévoir à elle-même. Nous présentons des applications empiriques en utilisant les rendements journaliers des indices et de taux de change. Les différents modèles concurrents sont appliqués à la seconde moitié de 2008, une période marquante dans la récente crise financière.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Les titres financiers sont souvent modélisés par des équations différentielles stochastiques (ÉDS). Ces équations peuvent décrire le comportement de l'actif, et aussi parfois certains paramètres du modèle. Par exemple, le modèle de Heston (1993), qui s'inscrit dans la catégorie des modèles à volatilité stochastique, décrit le comportement de l'actif et de la variance de ce dernier. Le modèle de Heston est très intéressant puisqu'il admet des formules semi-analytiques pour certains produits dérivés, ainsi qu'un certain réalisme. Cependant, la plupart des algorithmes de simulation pour ce modèle font face à quelques problèmes lorsque la condition de Feller (1951) n'est pas respectée. Dans ce mémoire, nous introduisons trois nouveaux algorithmes de simulation pour le modèle de Heston. Ces nouveaux algorithmes visent à accélérer le célèbre algorithme de Broadie et Kaya (2006); pour ce faire, nous utiliserons, entre autres, des méthodes de Monte Carlo par chaînes de Markov (MCMC) et des approximations. Dans le premier algorithme, nous modifions la seconde étape de la méthode de Broadie et Kaya afin de l'accélérer. Alors, au lieu d'utiliser la méthode de Newton du second ordre et l'approche d'inversion, nous utilisons l'algorithme de Metropolis-Hastings (voir Hastings (1970)). Le second algorithme est une amélioration du premier. Au lieu d'utiliser la vraie densité de la variance intégrée, nous utilisons l'approximation de Smith (2007). Cette amélioration diminue la dimension de l'équation caractéristique et accélère l'algorithme. Notre dernier algorithme n'est pas basé sur une méthode MCMC. Cependant, nous essayons toujours d'accélérer la seconde étape de la méthode de Broadie et Kaya (2006). Afin de réussir ceci, nous utilisons une variable aléatoire gamma dont les moments sont appariés à la vraie variable aléatoire de la variance intégrée par rapport au temps. Selon Stewart et al. (2007), il est possible d'approximer une convolution de variables aléatoires gamma (qui ressemble beaucoup à la représentation donnée par Glasserman et Kim (2008) si le pas de temps est petit) par une simple variable aléatoire gamma.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Rapport de stage présenté à la Faculté des études supérieures en vue de l’obtention du grade de maîtrise (M. Sc.)en criminologie

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Ce mémoire s’intéresse au comportement américain en matière de reconnaissance d’État. Il tente d’identifier quels sont les facteurs susceptibles d’être appliqués par les États- Unis d’Amérique dans l’hypothèse d’une éventuelle reconnaissance du Québec. Les évènements politiques survenus au cours des trente dernières années au Québec ont non seulement suscité un fort intérêt à Washington, ils ont également conduit le gouvernement américain à mettre en place une approche politique particulière à l’endroit du Québec. Utilisée à partir de la fin des années 1970, cette approche spécifique (qui fait maintenant office de ligne de conduite) demeure encore aujourd’hui celle qui prévaut à la Maison- Blanche. En dépit de la tenue de deux référendums sur la souveraineté en 1980 et en 1995, le Québec demeure encore aujourd’hui une province de l’État canadien. Cependant, s’il devait un jour accéder à l’indépendance, il y a fort à parier que la décision des États-Unis de reconnaître le Québec serait modulée à partir d’intérêts sécuritaires ponctuels, mais aussi en fonction d’intérêts politiques ou économiques. Dans la majorité des cas depuis la dissolution de la Yougoslavie en 1991, les États-Unis d’Amérique ont agi ainsi. L’analyse du comportement américain lors de la reconnaissance récente du Kosovo en 2008 vient appuyer ces dires et démontre que Washington utilise la même approche pour reconnaître de nouveaux États depuis au moins 20 ans.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Le jeu casual est un phénomène majeur de l’industrie vidéoludique, pourtant il reste peu étudié et mal considéré. Les quelques définitions scientifiques recensées présentent des divergences importantes, ainsi qu’un décalage par rapport aux jeux produits. Les modèles théoriques en design de jeu, centrés sur le gameplay, semblent inadéquats face à ce phénomène. En utilisant le modèle du praticien réflexif de Donald Schön, l’objectif de notre recherche est d’apporter un nouvel éclairage sur le jeu casual grâce au savoir professionnel des designers de jeux. Notre approche est qualitative, d’inspiration phénoménologique : nous avons recueilli l’expérience de huit designers de jeux par l’intermédiaire d’entretiens semi-dirigés proches du récit de pratique. Nos résultats montrent que les concepts utilisés dans les modèles vidéoludiques traditionnels restent pertinents pour définir le jeu casual, mais demandent à être retravaillés afin de rendre compte des mutations de l’expérience de jeu. Ainsi, un challenge dans un jeu casual n’est pas un obstacle mais une opportunité d’action pour le joueur. De plus, la progression se fait par la variation des challenges plutôt que par l’augmentation de la difficulté. Ensuite, certains concepts qui semblaient pertinents pour définir les jeux casual, tels que la fiction positive, ont été rejetés par nos participants. Enfin, notre étude a permis de rassembler des informations sur le rôle du designer de jeu casual et le contexte dans lequel il exerce, ce qui permet d’expliquer certaines causes de la vision péjorative du jeu casual.