996 resultados para Nouvelle droite
Resumo:
Dans cette thèse, nous présentons une nouvelle méthode smoothed particle hydrodynamics (SPH) pour la résolution des équations de Navier-Stokes incompressibles, même en présence des forces singulières. Les termes de sources singulières sont traités d'une manière similaire à celle que l'on retrouve dans la méthode Immersed Boundary (IB) de Peskin (2002) ou de la méthode régularisée de Stokeslets (Cortez, 2001). Dans notre schéma numérique, nous mettons en oeuvre une méthode de projection sans pression de second ordre inspirée de Kim et Moin (1985). Ce schéma évite complètement les difficultés qui peuvent être rencontrées avec la prescription des conditions aux frontières de Neumann sur la pression. Nous présentons deux variantes de cette approche: l'une, Lagrangienne, qui est communément utilisée et l'autre, Eulerienne, car nous considérons simplement que les particules SPH sont des points de quadrature où les propriétés du fluide sont calculées, donc, ces points peuvent être laissés fixes dans le temps. Notre méthode SPH est d'abord testée à la résolution du problème de Poiseuille bidimensionnel entre deux plaques infinies et nous effectuons une analyse détaillée de l'erreur des calculs. Pour ce problème, les résultats sont similaires autant lorsque les particules SPH sont libres de se déplacer que lorsqu'elles sont fixes. Nous traitons, par ailleurs, du problème de la dynamique d'une membrane immergée dans un fluide visqueux et incompressible avec notre méthode SPH. La membrane est représentée par une spline cubique le long de laquelle la tension présente dans la membrane est calculée et transmise au fluide environnant. Les équations de Navier-Stokes, avec une force singulière issue de la membrane sont ensuite résolues pour déterminer la vitesse du fluide dans lequel est immergée la membrane. La vitesse du fluide, ainsi obtenue, est interpolée sur l'interface, afin de déterminer son déplacement. Nous discutons des avantages à maintenir les particules SPH fixes au lieu de les laisser libres de se déplacer. Nous appliquons ensuite notre méthode SPH à la simulation des écoulements confinés des solutions de polymères non dilués avec une interaction hydrodynamique et des forces d'exclusion de volume. Le point de départ de l'algorithme est le système couplé des équations de Langevin pour les polymères et le solvant (CLEPS) (voir par exemple Oono et Freed (1981) et Öttinger et Rabin (1989)) décrivant, dans le cas présent, les dynamiques microscopiques d'une solution de polymère en écoulement avec une représentation bille-ressort des macromolécules. Des tests numériques de certains écoulements dans des canaux bidimensionnels révèlent que l'utilisation de la méthode de projection d'ordre deux couplée à des points de quadrature SPH fixes conduit à un ordre de convergence de la vitesse qui est de deux et à une convergence d'ordre sensiblement égale à deux pour la pression, pourvu que la solution soit suffisamment lisse. Dans le cas des calculs à grandes échelles pour les altères et pour les chaînes de bille-ressort, un choix approprié du nombre de particules SPH en fonction du nombre des billes N permet, en l'absence des forces d'exclusion de volume, de montrer que le coût de notre algorithme est d'ordre O(N). Enfin, nous amorçons des calculs tridimensionnels avec notre modèle SPH. Dans cette optique, nous résolvons le problème de l'écoulement de Poiseuille tridimensionnel entre deux plaques parallèles infinies et le problème de l'écoulement de Poiseuille dans une conduite rectangulaire infiniment longue. De plus, nous simulons en dimension trois des écoulements confinés entre deux plaques infinies des solutions de polymères non diluées avec une interaction hydrodynamique et des forces d'exclusion de volume.
Resumo:
Cet article, à travers une analyse des caractéristiques du savoir traditionnel et du cadre juridique international de la propriété intellectuelle, montre que le savoir traditionnel des peuples autochtones ne peut pas être protégé par le système actuel de propriété intellectuelle, tel que défini notamment dans l'Accord sur les ADPIC, bien qu'il soit reconnu fondamental pour la conservation de la diversité biologique comme dans la Convention sur la Diversité Biologique. Dans ce contexte de normes antinomiques, cet article explore les perspectives d'avenir de la protection des droits des peuples autochtones en matière de propriété intellectuelle, et envisage la médiation pour aller au-delà de l'incompatibilité manifeste des deux sphères.
Resumo:
Le développement exponentiel des réseaux informatiques a largement contribué à augmenter le volume des renseignements personnels disponibles et à remplacer les méthodes désuètes de collecte des renseignements par des méthodes plus rapides et plus efficaces. La vie privée et le contrôle sur les informations personnelles, tels que nous les connaissions il y a quelques décennies, sont des notions difficilement compatibles avec la société ouverte et commerciale comme la nôtre. Face à cette nouvelle réalité menaçante pour les droits et libertés de l’homme, il est essentiel de donner un cadre technique et légal stable qui garantisse une protection adéquate de ces données personnelles. Pour rester dans le marché ou bénéficier de la confiance des individus, les entreprises et les gouvernements doivent posséder une infrastructure de sécurité efficace. Cette nouvelle donne a tendance à devenir plus qu’une règle de compétitivité, elle se transforme en une authentique obligation légale de protéger les données à caractère personnel par des mesures de sécurité adéquates et suffisantes. Ce mémoire aborde justement ces deux points, soit l’étude du développement d’une obligation légale de sécurité et l’encadrement juridique de la mise en place d’un programme de sécurisation des données personnelles par des mesures de sécurités qui respectent les standards minimaux imposés par les textes législatifs nationaux et internationaux.
Resumo:
« La version intégrale de ce mémoire est disponible uniquement pour consultation individuelle à la Bibliothèque de musique de l’Université de Montréal (www.bib.umontreal.ca/MU). »
Resumo:
Dans ce mémoire, nous aborderons des questions portant sur la légitimité de la propriété privée, à quels moments est-ce que la propriété privée cesse d’être légitime ? Nous défendrons que chaque individu détient le droit inaliénable d’accéder aux ressources, et que cet accès aux ressources doit lui fournir tous les moyens nécessaires pour qu’il puisse se développer jusqu’à ce qu’il soit pleinement autonome. Ainsi, lorsque la propriété privée de certains individus bloque l’accès aux ressources, il doit y avoir des mécanismes de redistribution permettant de compenser la nuisance produite par la propriété privée. Par ailleurs, l’accès aux ressources peut être remplacé par une gamme d’opportunités de base : les opportunités de développement nécessaires à l’atteinte de l’autonomie en société. La redistribution n’a donc pas besoin de viser l’accès aux ressources, elle doit garantir que tous aient accès aux opportunités de base. Nous circonscrirons notre réflexion à un cadre de justice minimale dans le but d’attribuer une nécessité morale à chacune des conclusions de ce mémoire. Autrement dit, si les paramètres de redistribution développés au terme de ce mémoire représentent le strict minimum pour qu’une société se soucie de la justice, alors il est nécessaire que toutes les sociétés instituent au moins ces paramètres de redistribution. Pour démontrer le minimalisme de ces paramètres de justice, nous les déduirons à partir de la position des libertariens de droite. Considérant que leur position se veut la plus minimale possible, si nos paramètres de redistribution sont pleinement consistants avec leur position, alors ces paramètres relèvent de la justice minimale.
Resumo:
Essai présenté à la Faculté des arts et des sciences en vue de l’obtention du grade de Maîtrise ès Art (M.A.) en service social
Resumo:
Ce mémoire de maîtrise présente une nouvelle approche non supervisée pour détecter et segmenter les régions urbaines dans les images hyperspectrales. La méthode proposée n ́ecessite trois étapes. Tout d’abord, afin de réduire le coût calculatoire de notre algorithme, une image couleur du contenu spectral est estimée. A cette fin, une étape de réduction de dimensionalité non-linéaire, basée sur deux critères complémentaires mais contradictoires de bonne visualisation; à savoir la précision et le contraste, est réalisée pour l’affichage couleur de chaque image hyperspectrale. Ensuite, pour discriminer les régions urbaines des régions non urbaines, la seconde étape consiste à extraire quelques caractéristiques discriminantes (et complémentaires) sur cette image hyperspectrale couleur. A cette fin, nous avons extrait une série de paramètres discriminants pour décrire les caractéristiques d’une zone urbaine, principalement composée d’objets manufacturés de formes simples g ́eométriques et régulières. Nous avons utilisé des caractéristiques texturales basées sur les niveaux de gris, la magnitude du gradient ou des paramètres issus de la matrice de co-occurrence combinés avec des caractéristiques structurelles basées sur l’orientation locale du gradient de l’image et la détection locale de segments de droites. Afin de réduire encore la complexité de calcul de notre approche et éviter le problème de la ”malédiction de la dimensionnalité” quand on décide de regrouper des données de dimensions élevées, nous avons décidé de classifier individuellement, dans la dernière étape, chaque caractéristique texturale ou structurelle avec une simple procédure de K-moyennes et ensuite de combiner ces segmentations grossières, obtenues à faible coût, avec un modèle efficace de fusion de cartes de segmentations. Les expérimentations données dans ce rapport montrent que cette stratégie est efficace visuellement et se compare favorablement aux autres méthodes de détection et segmentation de zones urbaines à partir d’images hyperspectrales.
Resumo:
Les facteurs de transcription sont des protéines spécialisées qui jouent un rôle important dans différents processus biologiques tel que la différenciation, le cycle cellulaire et la tumorigenèse. Ils régulent la transcription des gènes en se fixant sur des séquences d’ADN spécifiques (éléments cis-régulateurs). L’identification de ces éléments est une étape cruciale dans la compréhension des réseaux de régulation des gènes. Avec l’avènement des technologies de séquençage à haut débit, l’identification de tout les éléments fonctionnels dans les génomes, incluant gènes et éléments cis-régulateurs a connu une avancée considérable. Alors qu’on est arrivé à estimer le nombre de gènes chez différentes espèces, l’information sur les éléments qui contrôlent et orchestrent la régulation de ces gènes est encore mal définie. Grace aux techniques de ChIP-chip et de ChIP-séquençage il est possible d’identifier toutes les régions du génome qui sont liées par un facteur de transcription d’intérêt. Plusieurs approches computationnelles ont été développées pour prédire les sites fixés par les facteurs de transcription. Ces approches sont classées en deux catégories principales: les algorithmes énumératifs et probabilistes. Toutefois, plusieurs études ont montré que ces approches génèrent des taux élevés de faux négatifs et de faux positifs ce qui rend difficile l’interprétation des résultats et par conséquent leur validation expérimentale. Dans cette thèse, nous avons ciblé deux objectifs. Le premier objectif a été de développer une nouvelle approche pour la découverte des sites de fixation des facteurs de transcription à l’ADN (SAMD-ChIP) adaptée aux données de ChIP-chip et de ChIP-séquençage. Notre approche implémente un algorithme hybride qui combine les deux stratégies énumérative et probabiliste, afin d’exploiter les performances de chacune d’entre elles. Notre approche a montré ses performances, comparée aux outils de découvertes de motifs existants sur des jeux de données simulées et des jeux de données de ChIP-chip et de ChIP-séquençage. SAMD-ChIP présente aussi l’avantage d’exploiter les propriétés de distributions des sites liés par les facteurs de transcription autour du centre des régions liées afin de limiter la prédiction aux motifs qui sont enrichis dans une fenêtre de longueur fixe autour du centre de ces régions. Les facteurs de transcription agissent rarement seuls. Ils forment souvent des complexes pour interagir avec l’ADN pour réguler leurs gènes cibles. Ces interactions impliquent des facteurs de transcription dont les sites de fixation à l’ADN sont localisés proches les uns des autres ou bien médier par des boucles de chromatine. Notre deuxième objectif a été d’exploiter la proximité spatiale des sites liés par les facteurs de transcription dans les régions de ChIP-chip et de ChIP-séquençage pour développer une approche pour la prédiction des motifs composites (motifs composés par deux sites et séparés par un espacement de taille fixe). Nous avons testé ce module pour prédire la co-localisation entre les deux demi-sites ERE qui forment le site ERE, lié par le récepteur des œstrogènes ERα. Ce module a été incorporé à notre outil de découverte de motifs SAMD-ChIP.
Resumo:
L’existence d’un sous-type dissociatif de schizophrénie a été suggérée par plusieurs auteurs pour rendre compte des présentations symptomatologiques d’un groupe de personnes dont le diagnostic principal est dans le spectre de la schizophrénie mais qui présentent aussi des symptômes dissociatifs (Ross, 2004; Şar et al., 2010; Van der Hart, Witztum, & Friedman, 1993). D’origine traumatique, ce type de portrait clinique où symptômes psychotiques et dissociatifs s’entremêlent aurait été décrit il y a déjà plus d’un siècle (Janet & Raymond, 1898) mais serait disparu dans les années ’30, assimilé au concept de « schizophrénie » (Rosenbaum, 1980). C’est dans un nouveau contexte nosographique que le concept de schizophrénie dissociative refait surface. En effet, la nosographie psychiatrique a pris un tournant en 1980 lorsque l’approche préconisée par le DSM est devenue descriptive plutôt que basée sur des conceptualisations psychanalytiques. Du coup, les affections d’alors ont été divisées en troubles dont les symptômes ont tendance à se manifester ensemble (Cooper, 2004) et la comorbidité entre les troubles a augmenté. Étant donné la comorbidité fréquemment rapportée entre les troubles psychotiques et dissociatifs, la similarité phénoménologique de leurs symptômes, ainsi que leur possible étiologie traumatique, Ross (2004) a proposé une série de critères permettant de diagnostiquer une schizophrénie dissociative. L’objectif principal de cette thèse est donc d’établir si la schizophrénie dissociative, telle que définie par Ross (2004), existe. Le premier article porte sur la problématique et le contexte théorique ayant mené à la question de recherche. Il vise à faire un survol des enjeux entourant la question de la schizophrénie dissociative et rend compte des écrits scientifiques sur la symptomatologie similaire entre les troubles psychotiques et dissociatifs, sur leur étiologie traumatique et sur les études sur la dissociation et la schizophrénie. Le deuxième article est quant à lui un article empirique rendant compte de la méthodologie utilisée pour répondre à la question de recherche. En effet, aucune étude jusqu’ici n’a testé systématiquement les critères de la schizophrénie dissociative. Nos résultats démontrent que 24% de notre échantillon (N=50) pourrait recevoir le diagnostic de schizophrénie dissociative avec les critères proposés par Ross (2004). Toutefois, ces critères posant problème, une modification a été proposée et une prévalence de 14% a alors été trouvée. Des vignettes cliniques sont présentées afin de comparer nos participants avec ceux rapportés ailleurs. Les liens entre symptômes psychotiques et dissociatifs sont discutés en essayant de conceptualiser la schizophrénie dissociative de différentes manières, soit comme une nouvelle entité clinique, comme un trouble comorbide ou dans un contexte nosographique psychodynamique.
Resumo:
Essai doctoral présenté à la Faculté des arts et des sciences en vue de l'obtention du grade de Doctorat (D.Psy) en psychologie option psychologie clinique
Resumo:
Né à Constantine en 1905 É.C., décédé à Alger en 1973 É.C., Malek Bennabi ce penseur algérien et réformateur musulman peu connu, s’est attaché durant sa vie, à étudier et analyser les problèmes liés à la civilisation du Monde arabo-musulman. Ingénieur sorti de l’Ecole Polytechnique de Paris, Malek Bennabi a jumelé deux cultures différentes : la culture islamique et la culture occidentale.C'est pour cette raison que ses analyses sont ornées d'expertise et d'expérience, d'innovation et d'émancipation. Sa réflexion est pleine d'animation, il a plus d'une vingtaine d'ouvrages, traitant des thèmes variés : la civilisation, le dialogue civilisationnel, la culture, l'idéologie, les problèmes de société, l’orientalisme, la démocratie, le système colonial ainsi que de sujets relatifs au phénomène coranique. À travers ses écrits, il s’attache à étudier et à analyser les raisons de la stagnation de la Société arabo-musulmane et les conditions d’une nouvelle renaissance. Malek Bennabi, s’attèle à tenter d’éveiller les consciences pour une renaissance de cette société. Ayant vécu l’expérience coloniale et post – coloniale dans son pays, Malek Bennabi demeurera tourmenté par les obstacles de développement. Pour lui l’accession à l’indépendance et la construction d’un État moderne n’auront pas suffi à arracher la société au sous-développement économique, social et culturel. En effectuant une relecture du patrimoine islamique, tout comme l’ont fait deux penseurs décédés récemment : Al Djâbiri et Mohamed Arkoun. Malek Bennabi cherchait à offrir une énergie sociale capable à arracher les sociétés arabo-musulmanes de leur sous-développement et décadence. C’est sous cet angle, que nous allons, dans ce mémoire, mener notre réflexion en l’articulant autour de la problématique centrale qui traverse la pensée de Malek Bennabi, à savoir celle du renouveau de la société islamique marquée par une grande diversité. Nous allons tenter de répondre à plusieurs questions, dont la principale est la suivante : est-ce que Malek Bennabi a présenté, à travers ses idées, de la nouveauté pour changer la réalité arabo-musulmane?
Resumo:
Basée sur l’analyse des données officielles, cette recherche propose une étude sur le lien entre les nouveaux flux migratoires internationaux des Chinois, qui se produisent à partir des années 2000, et l’évolution des profils et des performances économiques des immigrants chinois au Canada et au Québec. Le but de ce mémoire est d’observer la quantité et la qualité de ces nouveaux arrivants vis-à-vis leurs performances après l’immigration. Les nouveaux immigrants en provenance de la Chine continentale sont différents des précédents dans la mesure où les riches et les élites sont devenus majoritaires. Ces nouveaux flux sont aussi accompagnés d’une forte croissance du nombre d’étudiants chinois qui font leurs études à l’international et du nombre d’immigrants de retour. Néanmoins, les résultats ne démontrent pas que leurs performances au Canada et au Québec s’améliorent même s’ils ont des profils plus qualifiés et plus jeunes. Évidemment, l’arrivée de ces immigrants chinois récents a des conséquences importantes. À cause des forts changements de la condition économique et sociale interne en Chine, ces flux de personnes ne cesseront pas de croître dans le futur proche. Ainsi, les décideurs du Canada et du Québec doivent porter plus d’attention et réagir au mieux face à cette tendance.
Resumo:
L’attrait des compagnies pharmaceutiques pour des structures cycliques possédant des propriétés biologiques intéressantes par les compagnies pharmaceutiques a orienté les projets décrits dans ce mémoire. La synthèse rapide, efficace, verte et économique de ces structures suscite de plus en plus d’attention dans la littérature en raison des cibles biologiques visées qui deviennent de plus en plus complexes. Ce mémoire se divise en deux projets ciblant la synthèse de deux structures aromatiques importantes dans le monde de la chimie médicinale. Dans un premier temps, l’amélioration de la synthèse de dérivés phénoliques a été réalisée. L’apport de la chimie en flux continu dans le développement de voies synthétiques plus vertes et efficaces sera tout d’abord discuté. Ensuite, une revue des antécédents concernant l’hydroxylation d’halogénure d’aryle sera effectuée. Finalement, le développement d’une nouvelle approche rapide de synthèse des phénols utilisant la chimie en flux continu sera présenté, suivi d’un survol de ses avantages et ses limitations. Dans un deuxième temps, le développement d’une nouvelle méthodologie pour la formation de 3-aminoindazoles a été réalisé. Tout d’abord, un résumé de la littérature sur la synthèse de différents indazoles sera présenté. Ensuite, une présentation de deux méthodes efficaces d’activation de liens sera effectuée, soit l’activation d’amides par l’anhydride triflique et l’activation de liens C–H catalysée par des métaux de transition. Finalement, le développement d’une nouvelle méthodologie pour la synthèse de 3-aminoindazole utilisant ces deux approches sera discuté.
Resumo:
Le Jeu, un phénomène difficile à définir, se manifeste en littérature de différentes manières. Le présent travail en considère deux : l’écriture à contrainte, telle que la pratique l’Oulipo, et l’écriture de l’imaginaire, en particulier les romans de Fantasy française. La première partie de cette étude présente donc, sous forme d’essai, les origines et les visées des deux groupes d’écrivains, mettant en lumière les similitudes pouvant être établies entre eux malgré leurs apparentes différences. Tandis que l’Oulipo cherche des contraintes capables de générer un nombre infini de textes et explore la langue par ce moyen, la Fantasy se veut créatrice de mondes imaginaires en puisant généralement à la source de Tolkien et des jeux de rôle. Il en résulte que le jeu, dans les deux cas, se révèle un puissant moteur de création, que le récit appelle un lecteur-explorateur et qu’il crée une infinité de mondes possibles. Malgré tout, des divergences demeurent quant à leurs critiques, leurs rapports avec le jeu et les domaines extralittéraires, et leurs visées. Considérant ce fait, je propose de combiner les deux styles d’écriture en me servant du cycle des Hortense de Jacques Roubaud (structuré au moyen de la sextine) et des Chroniques des Crépusculaires de Mathieu Gaborit (figure de proue en fantasy « pure »). Ce projet a pour but de combler le fossé restant encore entre les deux groupes. Ainsi, la seconde partie de mon travail constitue une première tentative de réunion des deux techniques d’écriture (à contrainte et de l’imaginaire). Six héros (trois aventuriers et trois mercenaires) partent à la recherche d’un objet magique dérobé à la Reine du Désert et capable de bouleverser l’ordre du monde. Le récit, divisé en six chapitres, rapporte les aventures de ce groupe jusqu’à leur rencontre avec l’ennemi juré de la Reine, un puissant sorcier elfe noir. Chaque chapitre comporte six sections plus petites où sont permutés – selon le mouvement de la sextine – six éléments caractéristiques des jeux de rôles : 1-Une description du MJ (Maître du Jeu) ; 2-Un combat ; 3-Une énigme à résoudre ou un piège à désarmer ; 4-Une discussion entre les joueurs à propos de leurs avatars ; 5-L’acquisition d’un nouvel objet ; 6-Une interaction avec un PNJ (Personnage Non Joueur). Tout au long du texte, des références aux Chroniques des Crépusculaires de Mathieu Gaborit apparaissent, suivant également un ordre sextinien. D’autres allusions, à Tolkien, Queneau, Perec ou Roubaud, agrémentent le roman.