252 resultados para Réseau organique covalent


Relevância:

20.00% 20.00%

Publicador:

Resumo:

L’étude scientifique des réseaux criminels démontre, de plus en plus, que leur structure est flexible et dynamique et que la thèse du contrôle ou de la centralisation des marchés criminels est discutable. Pourtant, devant la présence d’une organisation criminelle dite «traditionnelle» dans un marché criminel, autant la population que les milieux médiatiques, politiques, policiers et judiciaires, peuvent percevoir le marché comme étant contrôlé par cette organisation. Le fait de surévaluer la menace réelle de certains groupes criminels et de considérer que la centralisation des marchés criminels existent au détriment de la collaboration entre différents individus et groupes d’un réseau, peut notamment influencer les stratégies policières. D’une part, les autorités policières peuvent orienter leurs stratégies en tenant pour acquis que la structure dont s’est doté une présumée organisation criminelle se transpose dans le marché criminel dans lequel ses membres opèrent. D’autre part, cette organisation devient la première cible des autorités et les autres participants du réseau se voient accorder une moins grande importance dans les activités du marché. La recherche qui suit présente les résultats d’une analyse de réseau effectuée à partir des transcriptions de surveillances électroniques et physiques issues d’une importante opération policière visant la lutte aux motards criminalisés : l’opération Printemps 2001. À l’aide de ces données, un réseau de 349 individus a été créé. Bien que la cible principale de l’opération policière ait été l’organisation des Hell’s Angels, plus précisément, le chapitre Nomads et son club-école, les Rockers, d’autres groupes et d’autres individus ont été interceptés par les surveillances policières. Il ressort des analyses de la position occupée par l’ensemble des groupes et des individus identifiés, que les principales cibles des autorités policières n’étaient pas celles qui occupaient les positions les plus stratégiques pour être influentes et durer dans la portion du marché ciblée par l’opération.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

Le recours à la stratégie du recentrage sur le cœur de métier (core business) par les entreprises fait apparaître, en discours comme en pratique, trois mouvements qui déstabilisent les ensembles bureaucratiques: la réorganisation de la grande firme en « centres de profits », la multiplication des relations inter-firmes et un changement d’ordre qualitatif dans les termes de l’échange. L’avènement et le maintien de ce que nous convenons d’appeler l’« entreprise réseau » demeurent à ce jour problématique : soit cette forme organisationnelle serait le résultat d’une adaptation unilatérale à son environnement; soit la dynamique sociale serait réglée par la confiance entre les acteurs. Notre démarche inductive et exploratoire d’un cas d’entreprise réseau québécoise veut contribuer au démontage de la notion, puis à la compréhension sociologique du phénomène. Nous constatons que cette forme d’entreprise ne peut être comprise que lorsque nous la mettons en perspective avec l’entreprise bureaucratique.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

Les protéines sont les macromolécules les plus polyvalentes de la cellule. Elles jouent un rôle fondamental dans la majorité des processus biologiques à travers la formation de complexes multi-protéiques. Durant la transcription, une multitude de facteurs sont impliquées dans le contrôle de l’activité des complexes ARN polymérases. Notre laboratoire s’est intéressé au réseau d’interaction de la machinerie de transcription des ARN polymérases nucléaires, dans le but de mieux comprendre leurs mécanismes de régulation. Pour ce faire, une procédure protéomique comprenant la purification de complexes protéiques par affinité couplée à la spectrométrie de masse et à l’analyse bioinformatique a été développée. La méthode de purification TAP (Tandem Affinity Purification) a été adaptée pour permettre la purification de complexes protéiques solubles assemblés in vivo à partir de cellules humaines. L’objectif de mon projet de maîtrise était de purifier le complexe de l’ARN Pol I ainsi que de poursuivre l’expansion du réseau d’interactions protéine-protéine de la machinerie de transcription de l’ARN Pol II humaine. À l’aide des protéines POLR1E, TWISTNB, POLR2E, PFDN4, MBD2, XPA, CAND1 et PDCD5 étiquetées (TAP-tag) exprimées dans des lignées cellulaires ECR-293, plusieurs complexes protéiques solubles ont été purifiés et analysés par spectrométrie de masse. Les interactions protéiques ont été triées et validées bioinformatiquement pour donner en final une liste d’interactions ayant un haut degré de confiance à partir de laquelle des réseaux d’interactions protéine-protéine ont été créés. Le réseau créé au cours de ce projet connecte plusieurs composantes de la machinerie transcriptionnelle tels que les ARN Pol I, II et III, les complexes RPAP3/R2TP/prefoldin-like, TRiC/CCT, Mi-2/NuRD et des facteurs de transcription et de réparation de l’ADN. Ce type d’analyse nous a permis d’identifier et de caractériser de nouveaux régulateurs de la machinerie de transcription de l’ARN Pol I et II et de mieux comprendre son fonctionnement.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

Notre étude est bipartite. En premier lieu nous avons effectué une étude empirique des différences entre les processus de catégorisation explicite (verbalisable) et implicite (non-verbalisable). Nous avons examiné la difficulté et le temps nécessaire pour apprendre trois tâches de catégorisation dites par air de famille, par règle logique conjonctive et par règle logique disjonctive. Nous avons ensuite utilisé un réseau neuronal pour modéliser la catégorisation en lui faisant compléter les mêmes tâches. La comparaison entre les deux nous permet de juger de l’adéquation du modèle. Les données empiriques ont montré un effet de la typicité et de la familiarité en accord avec la documentation et nous trouvons que la tâche de catégorisation par règle disjonctive est la plus difficile alors que la tâche de catégorisation par air de famille est la plus facile. La modélisation par le réseau est une réussite partielle mais nous présentons des solutions afin qu’un réseau futur puisse modéliser le processus catégoriel humain efficacement

Relevância:

20.00% 20.00%

Publicador:

Resumo:

Les travaux traditionnels sur le crime organisé indiquent que le statut d’un individu déterminerait son succès individuel. Des recherches alternatives sur les réseaux des organisations criminelles et de la réussite criminelle indiquent que le rang est moins important que la croyance générale et que les mesures de positionnement stratégique de réseau sont plus susceptibles de déterminer le succès criminel. Ce mémoire étudie les variations des gains criminels au sein de l’organisation de distribution illicite de stupéfiants des Hells Angels. Son objectif est de distinguer, à l’aide de données de comptabilité autorévélées, les éléments influençant ces différences dans le succès criminel en fonction du positionnement plus stratégique ou vulnérable d’un individu au sein de son réseau. Les résultats révèlent des moyennes de volume d’argent transigé beaucoup plus élevées que ce qui est généralement recensé. La distribution de ces capitaux est largement inégale. La disparité des chances liées à l’association criminelle se retrouve aussi dans la polarisation entre les individus fortement privilégiés et les autres qui ont une capacité de positionnement médiocre. Le croisement entre les positions et l’inégalité des gains présente que le positionnement de l’individu dans son réseau est un meilleur prédicteur de réussite criminelle que toute autre variable contextuelle ou de rang. Enfin et surtout, en contradiction avec la littérature, le fait d’atteindre de haut rang hiérarchique nuirait au succès criminel, les résultats montrant que cet état réduit l’accès au crédit, réduit les quantités de drogue par transaction et augmente le prix de la drogue à l’unité.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

Thèse numérisée par la Division de la gestion de documents et des archives de l'Université de Montréal

Relevância:

20.00% 20.00%

Publicador:

Resumo:

Thèse numérisée par la Division de la gestion de documents et des archives de l'Université de Montréal

Relevância:

20.00% 20.00%

Publicador:

Resumo:

Thèse numérisée par la Division de la gestion de documents et des archives de l'Université de Montréal

Relevância:

20.00% 20.00%

Publicador:

Resumo:

Thèse numérisée par la Division de la gestion de documents et des archives de l'Université de Montréal

Relevância:

20.00% 20.00%

Publicador:

Resumo:

Le problème de tarification qui nous intéresse ici consiste à maximiser le revenu généré par les usagers d'un réseau de transport. Pour se rendre à leurs destinations, les usagers font un choix de route et utilisent des arcs sur lesquels nous imposons des tarifs. Chaque route est caractérisée (aux yeux de l'usager) par sa "désutilité", une mesure de longueur généralisée tenant compte à la fois des tarifs et des autres coûts associés à son utilisation. Ce problème a surtout été abordé sous une modélisation déterministe de la demande selon laquelle seules des routes de désutilité minimale se voient attribuer une mesure positive de flot. Le modèle déterministe se prête bien à une résolution globale, mais pèche par manque de réalisme. Nous considérons ici une extension probabiliste de ce modèle, selon laquelle les usagers d'un réseau sont alloués aux routes d'après un modèle de choix discret logit. Bien que le problème de tarification qui en résulte est non linéaire et non convexe, il conserve néanmoins une forte composante combinatoire que nous exploitons à des fins algorithmiques. Notre contribution se répartit en trois articles. Dans le premier, nous abordons le problème d'un point de vue théorique pour le cas avec une paire origine-destination. Nous développons une analyse de premier ordre qui exploite les propriétés analytiques de l'affectation logit et démontrons la validité de règles de simplification de la topologie du réseau qui permettent de réduire la dimension du problème sans en modifier la solution. Nous établissons ensuite l'unimodalité du problème pour une vaste gamme de topologies et nous généralisons certains de nos résultats au problème de la tarification d'une ligne de produits. Dans le deuxième article, nous abordons le problème d'un point de vue numérique pour le cas avec plusieurs paires origine-destination. Nous développons des algorithmes qui exploitent l'information locale et la parenté des formulations probabilistes et déterministes. Un des résultats de notre analyse est l'obtention de bornes sur l'erreur commise par les modèles combinatoires dans l'approximation du revenu logit. Nos essais numériques montrent qu'une approximation combinatoire rudimentaire permet souvent d'identifier des solutions quasi-optimales. Dans le troisième article, nous considérons l'extension du problème à une demande hétérogène. L'affectation de la demande y est donnée par un modèle de choix discret logit mixte où la sensibilité au prix d'un usager est aléatoire. Sous cette modélisation, l'expression du revenu n'est pas analytique et ne peut être évaluée de façon exacte. Cependant, nous démontrons que l'utilisation d'approximations non linéaires et combinatoires permet d'identifier des solutions quasi-optimales. Finalement, nous en profitons pour illustrer la richesse du modèle, par le biais d'une interprétation économique, et examinons plus particulièrement la contribution au revenu des différents groupes d'usagers.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

Cet article décrit une procédure de modélisation du phénomène de dispersion de la concentration du dioxyde de nitrogène (NO2) en utilisant la technique du perceptron multicouche (MLP). Notre objectif est de prouver que la concentration du NO2 est une variable autorégressive et expliquée par des variables météorologiques. Pour ce faire, nous avons procédé par trois étapes : dans la première étape nous avons utilisé la variable concentration NO2 uniquement, dans la seconde étape nous avons utilisé les variables météorologiques uniquement et dans la troisième étape nous avons utilisé la concentration du NO2 combinée avec les variables météorologiques. Les résultats ont montré que le troisième cas est plus performant que les deux autres ce qui prouve notre hypothèse.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

L’objectif de notre travail est de développer un outil d’analyse automatique des stades du sommeil basé sur les réseaux de neurones artificiels (RNA). Dans ce papier nous présentons notre démarche pour la conception de cet outil. La première difficulté consiste dans le choix de la représentation des signaux physiologiques et en particulier de l’électroencéphalogramme (EEG). Une fois la représentation adoptée, l’étape suivante est la conception du réseau de neurones optimal déterminé par un processus d’apprentissage et de validation sur les données issues d’un ensemble d'enregistrements de nuits de sommeil. Le résultat obtenu avec un taux de 63% de bonne classification pour six stades, nous incite à approfondir l’étude de cette problématique aux niveaux représentation et conception pour améliorer les performances de notre outil.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

This thesis examines the microeconomic consequences of the arrival of open source in the software market. Specifically, it analyzes three features of open source software by using specific models of industrial organization. Open source software is free, and may be modified or duplicated by anyone. The first paper studies the entry of an open source software in a closed source software market. Using a model of horizontal differentiation, the analysis considers a closed source firm's investment in the quality of its software. The introduction of open source on the market reduces the firm's investment in quality and increases the price of its software. Moreover, the entry of open source software may reduce consumer welfare. Post-entry by an open source software, the reduction in market share lowers the firm's incentive to invest in quality. The second paper features vertical differentiation to study a monopolist selling supporting product to its software. The study begins by contrasting the supply of support by an open source provider and a closed source vendor. The model shows that in both cases the levels of support offered are the same. In addition, consumer welfare is higher and profit lower under an open source software. Then, the paper considers the competition in the provision of support. Here, the supply of high level support is greater than under a monopolist. Finally, the monopolist adopts a dual licensing strategy to extract more surplus from developers interested in modifying open source software and redistributing the resulting product. This technique, when the developers place high value on the source code, generates more profit if the monopolist chooses to publish as open source rather than closed source. The last paper studies how a closed source firm is affected by the introduction of an open source benefiting from contributions by users. A vertical differentiation model is used, and reveals that, when contribution of users is present, the closed source vendor may lower its price to a level where it forces the open source out of the market. The firm's lower price not only increases demand for its software, but also induces consumers into switching from open to closed source software therefore reducing the contribution of users.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

Mémoire numérisé par la Division de la gestion de documents et des archives de l'Université de Montréal.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

Mémoire numérisé par la Division de la gestion de documents et des archives de l'Université de Montréal