976 resultados para False-medideira caterpillar


Relevância:

10.00% 10.00%

Publicador:

Resumo:

Affirmer que les citoyens des démocraties occidentales sont l’objet d’une surveillance systématique efficace et à grande échelle a de quoi provoquer une réaction incrédule. Démagogie, diront certains. Pourtant, les progrès réalisés dans les technologies de collecte, de traitement et de stockage d’information forcent une réflexion sur cette hypothèse. Il a été souligné justement que les coûts élevés liés aux moyens rudimentaires employés par les polices secrètes d’antan endiguaient en quelque sorte la menace. Les filatures, les infiltrations, les rapts nocturnes de dissidents pêchaient par manque de subtilité. Au contraire, le génie des techniques modernes vient de ce qu’elles n’entravent pas le quotidien des gens. Mais au-delà du raffinement technique, le contrôle panoptique de la masse atteint un sommet d’efficience dès lors que celle-ci est amenée à y consentir. Comme le faisait remarquer le professeur Raab : « [TRADUCTION] La surveillance prospère naturellement dans les régimes autoritaires qui ne s’exposent pas au débat public ni à la critique. Lorsqu’elle est utilisée dans des régimes dits démocratiques, elle est légitimée et circonscrite par des arguments de nécessité ou de justifications spéciales, tout comme la censure »[1]. Or, le droit, en tant que discours de rationalité, accomplit savamment ce travail de légitimation. C’est dans cet esprit qu’une analyse radicale des règles de droit encadrant le droit à la vie privée apporte une lucidité nouvelle sur notre faux sentiment de sécurité.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Le développement accéléré des technologies de communication, de saisie et de traitement de l’information durant les dernières années décennies ouvre la voie à de nouveaux moyens de contrôle social. Selon l’auteur Gary Marx ceux-ci sont de nature non coercitive et permettent à des acteurs privés ou publics d’obtenir des informations personnelles sur des individus sans que ceux-ci y consentent ou mêmes sans qu’ils en soient conscients. Ces moyens de contrôle social se fondent sur certaines valeurs sociales qui sont susceptibles de modifier le comportement des individus comme le patriotisme, la notion de bon citoyen ou le volontarisme. Tout comme les moyens coercitifs, elles amènent les individus à adopter certains comportements et à divulguer des informations précises. Toutefois, ces moyens se fondent soit sur le consentement des individus, consentement qui est souvent factice et imposée, soit l’absence de connaissance du processus de contrôle par les individus. Ainsi, l’auteur illustre comment des organisations privées et publiques obtiennent des informations privilégiées sur la population sans que celle-ci en soit réellement consciente. Les partisans de tels moyens soulignent leur importance pour la sécurité et le bien publique. Le discours qui justifie leur utilisation soutient qu’ils constituent des limites nécessaires et acceptables aux droits individuels. L’emploi de telles méthodes est justifié par le concept de l’intérêt public tout en minimisant leur impact sur les droits des individus. Ainsi, ces méthodes sont plus facilement acceptées et moins susceptibles d’être contestées. Toutefois, l’auteur souligne l’importance de reconnaître qu’une méthode de contrôle empiète toujours sur les droits des individus. Ces moyens de contrôle sont progressivement intégrés à la culture et aux modes de comportement. En conséquence, ils sont plus facilement justifiables et certains groupes en font même la promotion. Cette réalité rend encore plus difficile leur encadrement afin de protéger les droits individuels. L’auteur conclut en soulignant l’important décalage moral derrière l’emploi de ces méthodes non-coercitives de contrôle social et soutient que seul le consentement éclairé des individus peut justifier leur utilisation. À ce sujet, il fait certaines propositions afin d’encadrer et de rendre plus transparente l’utilisation de ces moyens de contrôle social.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Au cours des dernières années, le domaine de la consommation a grandement évolué. Les agents de marketing ont commencé à utiliser l’Internet pour influencer les consommateurs en employant des tactiques originales et imaginatives qui ont rendus possible l’atteinte d'un niveau de communication interpersonnelle qui avait précédemment été insondable. Leurs interactions avec les consommateurs, en utilisant la technologie moderne, se manifeste sous plusieurs formes différentes qui sont toutes accompagnés de leur propre assortiment de problèmes juridiques. D’abord, il n'est pas rare pour les agents de marketing d’utiliser des outils qui leur permettent de suivre les actions des consommateurs dans le monde virtuel ainsi que dans le monde physique. Les renseignements personnels recueillis d'une telle manière sont souvent utilisés à des fins de publicité comportementale en ligne – une utilisation qui ne respecte pas toujours les limites du droit à la vie privée. Il est également devenu assez commun pour les agents de marketing d’utiliser les médias sociaux afin de converser avec les consommateurs. Ces forums ont aussi servi à la commission d’actes anticoncurrentiels, ainsi qu’à la diffusion de publicités fausses et trompeuses – deux pratiques qui sont interdites tant par la loi sur la concurrence que la loi sur la protection des consommateurs. Enfin, les agents de marketing utilisent diverses tactiques afin de joindre les consommateurs plus efficacement en utilisant diverses tactiques qui les rendent plus visible dans les moteurs de recherche sur Internet, dont certaines sont considérés comme malhonnêtes et pourraient présenter des problèmes dans les domaines du droit de la concurrence et du droit des marques de commerce. Ce mémoire offre une description détaillée des outils utilisés à des fins de marketing sur Internet, ainsi que de la manière dont ils sont utilisés. Il illustre par ailleurs les problèmes juridiques qui peuvent survenir à la suite de leur utilisation et définit le cadre législatif régissant l’utilisation de ces outils par les agents de marketing, pour enfin démontrer que les lois qui entrent en jeu dans de telles circonstances peuvent, en effet, se révéler bénéfiques pour ces derniers d'un point de vue économique.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Les chutes chez les personnes âgées représentent un problème important de santé publique. Des études montrent qu’environ 30 % des personnes âgées de 65 ans et plus chutent chaque année au Canada, entraînant des conséquences néfastes sur les plans individuel, familiale et sociale. Face à une telle situation la vidéosurveillance est une solution efficace assurant la sécurité de ces personnes. À ce jour de nombreux systèmes d’assistance de services à la personne existent. Ces dispositifs permettent à la personne âgée de vivre chez elle tout en assurant sa sécurité par le port d'un capteur. Cependant le port du capteur en permanence par le sujet est peu confortable et contraignant. C'est pourquoi la recherche s’est récemment intéressée à l’utilisation de caméras au lieu de capteurs portables. Le but de ce projet est de démontrer que l'utilisation d'un dispositif de vidéosurveillance peut contribuer à la réduction de ce fléau. Dans ce document nous présentons une approche de détection automatique de chute, basée sur une méthode de suivi 3D du sujet en utilisant une caméra de profondeur (Kinect de Microsoft) positionnée à la verticale du sol. Ce suivi est réalisé en utilisant la silhouette extraite en temps réel avec une approche robuste d’extraction de fond 3D basée sur la variation de profondeur des pixels dans la scène. Cette méthode se fondera sur une initialisation par une capture de la scène sans aucun sujet. Une fois la silhouette extraite, les 10% de la silhouette correspondant à la zone la plus haute de la silhouette (la plus proche de l'objectif de la Kinect) sera analysée en temps réel selon la vitesse et la position de son centre de gravité. Ces critères permettront donc après analyse de détecter la chute, puis d'émettre un signal (courrier ou texto) vers l'individu ou à l’autorité en charge de la personne âgée. Cette méthode a été validée à l’aide de plusieurs vidéos de chutes simulées par un cascadeur. La position de la caméra et son information de profondeur réduisent de façon considérable les risques de fausses alarmes de chute. Positionnée verticalement au sol, la caméra permet donc d'analyser la scène et surtout de procéder au suivi de la silhouette sans occultation majeure, qui conduisent dans certains cas à des fausses alertes. En outre les différents critères de détection de chute, sont des caractéristiques fiables pour différencier la chute d'une personne, d'un accroupissement ou d'une position assise. Néanmoins l'angle de vue de la caméra demeure un problème car il n'est pas assez grand pour couvrir une surface conséquente. Une solution à ce dilemme serait de fixer une lentille sur l'objectif de la Kinect permettant l’élargissement de la zone surveillée.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

L’histoire du concept d’idéologie est riche des différentes définitions qui ont tenté de le circonscrire, en tension entre la description de visions du monde et la dénonciation de la « fausse conscience ». Chez les penseurs regroupés sous le nom d’ « École de Francfort », l’idéologie en vient à équivaloir au phénomène de l’industrie culturelle, c’est-à-dire la mise au service de la raison technique dans la production de la culture. Le statut du cinéma est intéressant à cet égard : non seulement est-ce un art né à l’époque industrielle et indissociable des possibilités techniques offertes par celle-ci, mais il a été mobilisé pour de nombreuses entreprises propagandistes, plus ou moins subtiles. La question directrice de l’interrogation est donc la suivante : selon la théorie critique de l’École de Francfort, le cinéma peut-il être considéré comme de l’art ou est-il confiné au domaine de l’idéologie ? Autrement dit, le cinéma peut-il revendiquer un statut qui ne ferait pas de lui qu’un support de la domination de l’humain par l’humain ?

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Les données provenant de l'échantillonnage fin d'un processus continu (champ aléatoire) peuvent être représentées sous forme d'images. Un test statistique permettant de détecter une différence entre deux images peut être vu comme un ensemble de tests où chaque pixel est comparé au pixel correspondant de l'autre image. On utilise alors une méthode de contrôle de l'erreur de type I au niveau de l'ensemble de tests, comme la correction de Bonferroni ou le contrôle du taux de faux-positifs (FDR). Des méthodes d'analyse de données ont été développées en imagerie médicale, principalement par Keith Worsley, utilisant la géométrie des champs aléatoires afin de construire un test statistique global sur une image entière. Il s'agit d'utiliser l'espérance de la caractéristique d'Euler de l'ensemble d'excursion du champ aléatoire sous-jacent à l'échantillon au-delà d'un seuil donné, pour déterminer la probabilité que le champ aléatoire dépasse ce même seuil sous l'hypothèse nulle (inférence topologique). Nous exposons quelques notions portant sur les champs aléatoires, en particulier l'isotropie (la fonction de covariance entre deux points du champ dépend seulement de la distance qui les sépare). Nous discutons de deux méthodes pour l'analyse des champs anisotropes. La première consiste à déformer le champ puis à utiliser les volumes intrinsèques et les compacités de la caractéristique d'Euler. La seconde utilise plutôt les courbures de Lipschitz-Killing. Nous faisons ensuite une étude de niveau et de puissance de l'inférence topologique en comparaison avec la correction de Bonferroni. Finalement, nous utilisons l'inférence topologique pour décrire l'évolution du changement climatique sur le territoire du Québec entre 1991 et 2100, en utilisant des données de température simulées et publiées par l'Équipe Simulations climatiques d'Ouranos selon le modèle régional canadien du climat.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Le diagnostic de l’acouphène repose sur le rapport verbal du patient. Cependant, les paramètres psychoacoustiques, tels que la hauteur et la sonie de l’acouphène, sont essentiels pour l’évaluation et pour discriminer les fausses plaintes. Quantifier le percept de l’acouphène reste un objectif de recherche important. Nous avons cherché à: (1) évaluer la précision d'une nouvelle méthode d'évaluation des acouphènes du type « likeness rating » avec une méthode de présentation continue de la hauteur, en considérant la formation musicale, et (2) vérifier si les mesures psychoacoustiques de l’acouphène ont la sensibilité et la spécificité pour détecter les personnes simulant un acouphène. Nous avons recruté des musiciens et des non-musiciens souffrant d'acouphènes et des simulateurs sans acouphènes. La plupart d’entre eux ont été testés une seconde fois quelques semaines plus tard. La hauteur de l’acouphène a d’abord été évaluée en utilisant la méthode « likness rating ». Des sons purs ont été présentés de manière aléatoire de 0.25 kHz à 16 kHz et les participants devaient coter la ressemblance de chaque son par rapport à leur acouphène, et en ajuster son volume de 0 à 100 dB SPL. La hauteur a ensuite été évaluée par une méthode, où les participants devaient apparier la hauteur de leur acouphène en déplaçant leur doigt sur une bande tactile générant des sons purs en continu de 0.5 kHz à 20 kHz par pas de 1 Hz. Les capacités à apparier des sons externes ont été évaluées en utilisant cet appareil. La hauteur prédominante de l’acouphène était similaire entre les deux méthodes pour les musiciens et les non-musiciens, bien que les musiciens montraient de meilleures capacités d’appariement face à des sons externes. Les simulateurs ont coté la sonie bien au-dessus que les autres groupes avec un grand degré de spécificité (94,4%), et ont été inconsistants dans l’appariement de cette sonie (pas de la hauteur) d’une session à une autre. Les données de la seconde session montrent des réponses similaires pour l’appariement de la hauteur pour les deux méthodes ainsi que pour tous nos participants. En conclusion, la hauteur et la sonie correspondent au percept de l’acouphène et doivent en plus être utilisées avec des échelles visuelles analogiques, qui sont plus corrélées avec la gêne et la détresse. Enfin, l’appariement de la sonie est sensible et spécifique à déterminer la présence de l’acouphène.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

L’auteur s’intéresse à la question de savoir si le droit du travail américain est plus favorable à l’investissement direct étranger (IDE) que le droit du travail québécois dans le contexte de l’ALENA. Pour ce faire, il fait une revue de littérature sur les déterminants de la localisation de l’IDE afin de clarifier l’importance du droit du travail national dans les décisions d’investissement des entreprises multinationales. Celle-ci révèle que la localisation de l’IDE est un processus complexe et multidimensionnel impliquant un grand nombre de facteurs, dont certains sont associés à la demande, d’autres aux coûts, d’autres aux caractéristiques des pays-hôtes, et d’autres, enfin, au risque. Le droit du travail national, bien que revêtant une certaine importance, n’est qu’un facteur parmi d’autres. Elle révèle également que l’importance relative des déterminants de la localisation de l’IDE, incluant le droit du travail national, varie elle-même en fonction d’autres facteurs, comme le secteur d’activité de l’entreprise, sa stratégie, sa taille et la motivation de l’IDE. Ensuite, il fait une étude de droit comparé entre le Québec et le Massachusetts afin d’identifier les principales différences qui existent entre les deux régimes de droit du travail. Cette étude a permis d’identifier des différences importantes entre les deux systèmes étudiés. Ainsi, dans l’ensemble, le droit du travail applicable au Massachusetts se fonde davantage sur les principes de la liberté contractuelle et du laisser-faire que le droit du travail québécois, qui est beaucoup plus interventionniste. Enfin, l’auteur analyse les différences observées dans le cadre de l’étude de droit comparé à la lumière des conclusions de sa revue de littérature sur les déterminants de la localisation de l’IDE. Il en vient à la conclusion que bien qu’à de nombreux égards le droits du travail québécois s’avère plus avantageux que le droit du travail applicable au Massachusetts aux fins de la localisation de l’IDE, c’est plutôt ce dernier qui, de façon générale, s’avère le plus avantageux à ce chapitre. En effet, dans l’ensemble, le droit du travail québécois est susceptible d’imposer des coûts de main-d’œuvre supérieurs et de réduire la flexibilité du marché du travail davantage que le droit du travail applicable au Massachusetts. Or, considérant que le droit du travail national n’est qu’un facteur parmi d’autres dans la décision de localisation de l’IDE, le Québec n’est pas sans moyens. En effet, il possède d’autres avantages comparatifs qu’il peut faire valoir auprès des entreprises qui œuvrent dans des secteurs d’activités où ces avantages concurrentiels sont valorisés et susceptibles d’être exploités. De plus, considérant que le droit du travail national a un importance relative qui varie elle-même en fonction d’autres facteurs, le droit du travail québécois n’a pas nécessairement le même effet sur tous les investisseurs. Enfin, considérant que le droit du travail remplit des fonctions sociales autant que des fonctions économiques, c’est un faux débat que de mettre l’accent uniquement sur les conséquences « négatives » du droit du travail national sur l’IDE. En effet, c’est faire complètement abstraction de la question des coûts sociaux que le droit du travail permet de prévenir au sein d’une société.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Les contre-exemples de Frankfurt sont inoffensifs contre l’argument de la conséquence (consequence argument), l’argument qui, à partir du principe des possibilités alternatives et du déterminisme, montre que nous ne pouvons être tenus moralement responsables de nos actions. En effet, ils sont formulés soit dans un cadre déterministe, soit dans un cadre indéterministe. S’ils sont formulés dans un cadre indéterministe, ils sont inoffensifs parce qu’ils contreviennent à un principe méthodologique que nous défendons : le principe de non-négation des prémisses (PNNP). En fait, nous montrons que pour tout argument donné, il est proscrit de supposer la négation d’une prémisse afin de réfuter une autre prémisse à moins que l’attaque réussisse à réfuter les deux prémisses en question. Or, d’une part, les contre-exemples de Frankfurt indéterministes supposent explicitement qu’une prémisse de l’argument de la conséquence – le déterminisme est vrai – est fausse; et d’autre part, ils ne peuvent pas nous donner de raisons de croire en l’indéterminisme, ce que nous montrons grâce à des considérations sur la transmission de la justification. Construire des contre-exemples de Frankfurt indéterministes est donc incorrect pour des raisons méthodologiques et logiques. S’ils sont formulés dans un cadre déterministe, les contre-exemples de Frankfurt font face à une autre accusation d’entorse argumentative, présentée dans la défense du dilemme (Dilemma Defence) de Kane-Ginet-Widerker : celle de la pétition de principe. Nous inspectons et nuançons cette accusation, mais concluons qu’elle tient puisque les contre-exemples de Frankfurt déterministes supposent au final une analyse des agents contrefactuels dans les mondes déterministes et de la relation « rendre inévitable » que ne peuvent endosser ni les incompatibilistes de la marge de manœuvre (leeway incompatibilists), ni les incompatibilistes de la source (source incompatibilists) ni non plus les semicompatibilistes. Conséquemment, les contre-exemples de Frankfurt ne peuvent plus soutenir la forme de compatibilisme à laquelle ils ont donné naissance. L’incompatibilisme de la source ne peut plus être préféré à l’incompatibilisme de la marge de manœuvre ni non plus rejeter toute participation des possibilités alternatives dans l’explication de la responsabilité morale sur cette seule base.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

“A Shine of Truth in the ‘universal delusional context of reification’ (Theodor W. Adorno)” comprend sept chapitres, un prologue et un épilogue. Chaque partie se construit à deux niveaux : (1) à partir des liens qui se tissent entre les phrases contiguës ; et (2) à partir des liens qui se tissent entre les phrases non contiguës. Les incipit des paragraphes forment l’argument principal de la thèse. Le sujet de la thèse, Schein (apparence, illusion, clarté) est abordé de manière non formaliste, c’est à dire, de manière que la forme donne d’elle-même une idée de la chose : illusion comme contradiction imposée. Bien que le sujet de la thèse soit l’illusion, son but est la vérité. Le Chapitre I présente une dialectique de perspectives (celles de Marx, de Lukács, de Hegel, de Horkheimer et d'Adorno) pour arriver à un critère de vérité, compte tenu du contexte d’aveuglement universel de la réification ; c’est la détermination de la dissolution de l’apparence. Le Chapitre II présente le concept d’apparence esthétique—une apparence réversible qui s’oppose à l’apparence sociale générée par l’industrie de la culture. Le Chapitre III cherche à savoir si la vérité en philosophie et la vérité en art sont deux genres distincts de vérités. Le Chapitre IV détermine si l’appel à la vérité comme immédiateté de l’expression, fait par le mouvement expressionniste du 20e siècle, est nouveau, jugé à l’aune d’un important antécédent à l’expressionisme musical : « Der Dichter spricht » de Robert Schumann. Le Chapitre V se penche sur la question à savoir si le montage inorganique est plus avancé que l’expressionisme. Le Chapitre VI reprend là où Peter Bürger clôt son essai Theorie de l’avant-garde : ce chapitre cherche à savoir à quel point l’oeuvre d’art après le Dada et le Surréalisme correspond au modèle hégélien de la « prose ». Le Chapitre VII soutient que Dichterliebe, op. 48, (1840), est une oeuvre d’art vraie. Trois conclusions résultent de cette analyse musicale détaillée : (1) en exploitant, dans certains passages, une ambigüité dans les règles de l’harmonie qui fait en sorte tous les douze tons sont admis dans l’harmonie, l’Opus 48 anticipe sur Schoenberg—tout en restant une musique tonale ; (2) l’Opus 48, no 1 cache une tonalité secrète : à l'oeil, sa tonalité est soit la majeur, soit fa-dièse mineur, mais une nouvelle analyse dans la napolitaine de do-dièse majeur est proposée ici ; (3) une modulation passagère à la napolitaine dans l’Opus 48, no 12 contient l’autre « moitié » de la cadence interrompue à la fin de l’Opus 48, no 1. Considérés à la lumière de la société fausse, l’Allemagne des années 1930, ces trois aspects anti-organiques témoignent d’une conscience avancée. La seule praxis de vie qu’apporte l’art, selon Adorno, est la remémoration. Mais l’effet social ultime de garder la souffrance vécue en souvenir est non négligeable : l’émancipation universelle.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Dans ce travail, j’étudierai principalement un modèle abélien de Higgs en 2+1 dimensions, dans lequel un champ scalaire interagit avec un champ de jauge. Des défauts topologiques, nommés vortex, sont créés lorsque le potentiel possède un minimum brisant spontanément la symétrie U(1). En 3+1 dimensions, ces vortex deviennent des défauts à une dimension. Ils ap- paraissent par exemple en matière condensée dans les supraconducteurs de type II comme des lignes de flux magnétique. J’analyserai comment l’énergie des solutions statiques dépend des paramètres du modèle et en particulier du nombre d’enroulement du vortex. Pour le choix habituel de potentiel (un poly- nôme quartique dit « BPS »), la relation entre les masses des deux champs mène à deux types de comportements : type I si la masse du champ de jauge est plus grande que celle du champ sca- laire et type II inversement. Selon le cas, la dépendance de l’énergie au nombre d’enroulement, n, indiquera si les vortex auront tendance à s’attirer ou à se repousser, respectivement. Lorsque le flux emprisonné est grand, les vortex présentent un profil où la paroi est mince, permettant certaines simplifications dans l’analyse. Le potentiel, un polynôme d’ordre six (« non-BPS »), est choisi tel que le centre du vortex se trouve dans le vrai vide (minimum absolu du potentiel) alors qu’à l’infini le champ scalaire se retrouve dans le faux vide (minimum relatif du potentiel). Le taux de désintégration a déjà été estimé par une approximation semi-classique pour montrer l’impact des défauts topologiques sur la stabilité du faux vide. Le projet consiste d’abord à établir l’existence de vortex classi- quement stables de façon numérique. Puis, ma contribution fut une analyse des paramètres du modèle révélant le comportement énergétique de ceux-ci en fonction du nombre d’enroulement. Ce comportement s’avèrera être différent du cas « BPS » : le ratio des masses ne réussit pas à décrire le comportement observé numériquement.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Pour exprimer ou définir une idée nouvelle, Derrida détourne souvent le sens d’un mot en se l’appropriant. La relation de Derrida avec les idées est telle que leur transmission passe par un vocabulaire spécifique, notamment l’analyse de l’étymologie (vraie et fausse). Mais quelle est sa conception du mot ? Quelles en sont les implications et les conséquences ? Pour répondre à ces questions, l’approche la plus féconde consiste à suivre au plus près celle que Derrida utilise en abordant la langue par rapport à la grammaire au sens large (c’est-à-dire tout ce qui fait événement dans la langue). En effet, la relation entre le mot et l’idée prend tout son sens dans l’analyse de certaines scènes bibliques, telles celles de la Genèse ou encore du mythe de Babel. Le fameux énoncé inaugural de l’Évangile de Jean, « Au commencement était la parole... », fait retour dans l’œuvre de Derrida, où il connaît plusieurs variations : il mérite examen, dans la perspective d’une déconstruction du logos et des origines de la langue. Le corpus de notre étude porte principalement sur trois textes de Jacques Derrida : « Des tours de Babel » (L’art des confins, PUF, 1979), Schibboleth – Pour Paul Celan (Galilée, 1986) et Donner la mort (Galilée, 1999), ces textes permettant tous une interrogation de l’« intention » divine dans le langage. Notre visée, en privilégiant dans l’œuvre derridienne ces « exemples » bibliques, est d’étudier la démarche de Derrida dans la « création » d’une langue, aspect qui a toujours été inséparable de l’élaboration de sa philosophie et auquel il a accordé la plus grande attention. À terme, ce travail se veut une contribution à la pensée du philosophe, portant sur un aspect capital de son travail et battant en brèche l’idée que son écriture est « absconse » ou « hermétique », alors qu’il y va pour lui de la mise en œuvre de sa manière même de concevoir la langue.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Ce mémoire consiste en une explication de la critique biblique de Spinoza contenue dans la Traité théologico-politique. Cette critique répond à un problème précis : la subversion de la religion en superstition. Cette critique, nous l’expliquons en quatre parties. La première partie consiste en une mise en situation problématique. Elle montre que le problème biblique, qui appelle une critique, est la subversion de la religion. On y montre aussi l’origine de la superstition et la manière dont elle subvertit la religion. La seconde partie consiste en une mise en contexte historique, où l’on montre la pertinence historique d’une telle critique. Nous voyons en effet que la critique biblique de Spinoza s’inscrit dans une période de controverses théologiques importante. La troisième partie expose la méthode d’interprétation des Écritures de Spinoza (méthode historico-critique) et cherche à éclaircir la notion de lumière naturelle, notion fondamentale de la dite méthode. Enfin, dans la quatrième partie, nous exposons la critique spinoziste des autres méthodes interprétatives, jugées erronées par ce dernier, soient les méthodes surnaturelle, sceptique et dogmatique. Nous le verrons, la critique biblique, qui se rapporte à une question très précise, a une finalité plus générale. En effet, la critique biblique est inséparable du but que se donne Spinoza dans le Traité théologico-politique, soit défendre la liberté de penser et de dire ce que l’on pense. En fait, la critique biblique est un moyen pour réaliser ce but.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Les nanoparticules (NPs) sont définies comme des particules ayant au moins une dimension comprise entre 1 à 100 nanomètres. Plusieurs études in vitro et in vivo indiquent que les NPs pourraient constituer un risque potentiel pour la santé des personnes les synthétisant ou les manipulant lors de leur incorporation dans d’autres matériaux. La nanotoxicologie est un domaine de recherche émergeant. Les propriétés physico-chimiques particulières des NPs sont responsables d’interférences non spécifiques entre les nanomatériaux et certains des composants des essais in vitro pouvant mener à de faux résultats. L’inhalation a été identifiée comme une voie d’exposition présentant un risque important de toxicité. Dans le cadre de ce projet, nous avons utilisé la lignée de cellules épithéliales alvéolaires humaines, A549. Nous avons étudié chez cette lignée les conséquences de l’exposition aux points quantiques (PQs), NPs d’intérêt pour leurs applications potentielles en médecine (nanovecteur ou nanosonde). La mise au point des conditions expérimentales (interférence entre l’essai LDH et le milieu de culture) a permis de valider les essais de cytotoxicité MTS et LDH en présence des PQs. Nous avons montré que les PQs présentaient une cytotoxicité à court et long terme, et nous avons par la suite étudié un des mécanismes de toxicité potentielle, la mesure du cadmium (Cd2+) libéré des PQs. Nous avons déterminé que la mesure du Cd2+ comportait plusieurs interférences qui invalident cet essai. En conclusion, notre étude a permis d’identifier des interférences qui remettent en question plusieurs conclusions d’études publiées qui n’ont pas vérifié l’existence de telles interférences.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Le roman Les Métamorphoses d'Apulée se distingue par les nombreux récits insérés qu’il contient et qui interrompent fréquemment la trame principale. Ces histoires étaient probablement déjà présentes en partie dans le roman grec qui a servi de source à Apulée, les Μεταμορφώσεις. Cependant, ce texte ne nous étant parvenu que sous une forme abrégée (l'ὄνος), il demeure difficile de déterminer à quel point la structure de la version latine des Métamorphoses retient de celle de l’original grec. Certes, certains éléments sont facilement attribuables à Apulée, comme le conte de Cupidon et Psyché, ou encore le 11ème et dernier livre du roman. En plus d’être divertissants, ces récits insérés reprennent les thèmes principaux exploités dans le roman, renforçant la cohérence de celui-ci. Par ailleurs, toutes ces histoires secondaires nécessitent l’intervention de plusieurs narrateurs et, en plus de Lucius (personnage et narrateur principal), divers personnages prennent la parole. Enfin, Apulée accorde aussi une grande attention à la perception que ses personnages ont des événements dont ils sont témoins ou des histoires qui leur sont rapportées. À plusieurs reprises, la subjectivité des personnages influence le récit. Ainsi, les histoires insérées des Métamorphoses, qui peuvent donner l’impression que la trame du récit est brouillonne, sont au contraire l’élément le plus original et le mieux développé du roman.