999 resultados para Temporal concept


Relevância:

20.00% 20.00%

Publicador:

Resumo:

Dans ce mémoire, je cherche à déterminer pourquoi les animaux non humains ne sont pas considérés comme étant autonomes dans les théories libérales contemporaines. Pour ce faire, j’analyse deux conceptions traditionnelles de l’autonomie, soit l’autonomie en tant qu’agentivité morale et l’autonomie hiérarchique (en tant que capacité à agir selon ses désirs de second ordre), et je soutiens que ces deux conceptions ne réussissent pas à bien justifier le respect des choix personnels même chez les agents humains. J’avance que ces deux conceptions de l’autonomie mènent à des conclusions perfectionnistes et paternalistes à certains égards, ce qui est pourtant contraire à leur fonction. J’analyse ensuite quelques versions alternatives de l’autonomie qui ne reposent pas sur la possession de facultés morales ou rationnelles, avant de proposer une nouvelle conception de l’autonomie qui pourrait répondre aux problèmes soulevés et potentiellement reconnaître l’autonomie des animaux non humains.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

La version intégrale de ce mémoire est disponible uniquement pour consultation individuelle à la bibliothèque de musique de l'Université de Montréal (www.bib.umontreal.ca/MU).

Relevância:

20.00% 20.00%

Publicador:

Resumo:

Faute de droits d'auteurs pour les captures d'écrans, mon document ne contient pas d'images. Si vous voudriez consulter ma thèse avec les images, veuillez me contacter.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

Ce mémoire engage une réflexion sur la plénitude dans la pensée de Charles Taylor, et plus particulièrement dans son maître ouvrage L’âge séculier. L’idée de plénitude y est intimement liée à celles de modernité, de croyance et d’incroyance. C’est que, pour Taylor, comprendre la modernité implique de saisir le changement qui nous a permis de passer d’un contexte dans lequel il était impensable de ne pas croire en Dieu à un contexte dans lequel la croyance n’est qu’une option. Ce changement tourne essentiellement autour d’une modification de notre représentation de la plénitude. Qu’est-ce que la plénitude pour notre auteur ? Elle est la condition à laquelle tend tout homme et implique une réponse, tacite ou pas, à la question du sens de la vie. Mon principal objectif sera de saisir la nature de la plénitude telle que la conçoit Taylor. Je montrerai que la double définition de la plénitude dans L’âge séculier génère une certaine tension entre la plénitude conçue comme un événement unique et comme une aspiration constante vers le sens (qui correspond aussi au bien). Je proposerai une résolution de cette tension à travers une compréhension de la plénitude qui vise à en restituer l’unité fondamentale, l’idée étant de saisir la plénitude comme événement unique et comme aspiration constante au sens, non pas séparément, mais dans leur relation. Ce modèle d’interprétation, fourni par l’idée d’éternité, que l’on retrouve aussi dans L’âge séculier, me conduira à établir une coïncidence entre la poursuite de la plénitude et le désir d’éternité. Tous deux ont le même but fondamental : à travers l’inscription de moments qualitativement privilégiés et uniques, constitutifs de la vie, dans la totalité de cette vie, ils visent à en dévoiler le sens et à lui conférer une certaine pérennité. À plus forte raison, ce que j’entends montrer à travers la coïncidence entre plénitude et éternité, c’est que la quête de plénitude n’engage pas nécessairement la perspective religieuse déployée dans L’âge séculier, mais plutôt une forme de transcendance que l’on pourrait qualifier de « temporelle ».

Relevância:

20.00% 20.00%

Publicador:

Resumo:

Full Text / Article complet

Relevância:

20.00% 20.00%

Publicador:

Resumo:

L'apprentissage profond est un domaine de recherche en forte croissance en apprentissage automatique qui est parvenu à des résultats impressionnants dans différentes tâches allant de la classification d'images à la parole, en passant par la modélisation du langage. Les réseaux de neurones récurrents, une sous-classe d'architecture profonde, s'avèrent particulièrement prometteurs. Les réseaux récurrents peuvent capter la structure temporelle dans les données. Ils ont potentiellement la capacité d'apprendre des corrélations entre des événements éloignés dans le temps et d'emmagasiner indéfiniment des informations dans leur mémoire interne. Dans ce travail, nous tentons d'abord de comprendre pourquoi la profondeur est utile. Similairement à d'autres travaux de la littérature, nos résultats démontrent que les modèles profonds peuvent être plus efficaces pour représenter certaines familles de fonctions comparativement aux modèles peu profonds. Contrairement à ces travaux, nous effectuons notre analyse théorique sur des réseaux profonds acycliques munis de fonctions d'activation linéaires par parties, puisque ce type de modèle est actuellement l'état de l'art dans différentes tâches de classification. La deuxième partie de cette thèse porte sur le processus d'apprentissage. Nous analysons quelques techniques d'optimisation proposées récemment, telles l'optimisation Hessian free, la descente de gradient naturel et la descente des sous-espaces de Krylov. Nous proposons le cadre théorique des méthodes à région de confiance généralisées et nous montrons que plusieurs de ces algorithmes développés récemment peuvent être vus dans cette perspective. Nous argumentons que certains membres de cette famille d'approches peuvent être mieux adaptés que d'autres à l'optimisation non convexe. La dernière partie de ce document se concentre sur les réseaux de neurones récurrents. Nous étudions d'abord le concept de mémoire et tentons de répondre aux questions suivantes: Les réseaux récurrents peuvent-ils démontrer une mémoire sans limite? Ce comportement peut-il être appris? Nous montrons que cela est possible si des indices sont fournis durant l'apprentissage. Ensuite, nous explorons deux problèmes spécifiques à l'entraînement des réseaux récurrents, à savoir la dissipation et l'explosion du gradient. Notre analyse se termine par une solution au problème d'explosion du gradient qui implique de borner la norme du gradient. Nous proposons également un terme de régularisation conçu spécifiquement pour réduire le problème de dissipation du gradient. Sur un ensemble de données synthétique, nous montrons empiriquement que ces mécanismes peuvent permettre aux réseaux récurrents d'apprendre de façon autonome à mémoriser des informations pour une période de temps indéfinie. Finalement, nous explorons la notion de profondeur dans les réseaux de neurones récurrents. Comparativement aux réseaux acycliques, la définition de profondeur dans les réseaux récurrents est souvent ambiguë. Nous proposons différentes façons d'ajouter de la profondeur dans les réseaux récurrents et nous évaluons empiriquement ces propositions.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

Commentaire / Commentary

Relevância:

20.00% 20.00%

Publicador:

Resumo:

L’anarchisme vit un renouveau un peu partout sur le globe depuis les années 1990 et la montée du mouvement contre la mondialisation. Cependant pour les chercheurs contemporains, le lien est bien mince entre l’anarchisme du 21e siècle et le mouvement anarchiste du début du 20e siècle. Selon ces chercheurs, l’anarchisme contemporain serait davantage caractérisé par la nature expérimentale de ses stratégies et par son focus sur le moment présent. L’objectif de ce mémoire est de démontrer qu’il est possible de tracer des liens clairs entre les auteurs anarchistes classiques et l’anarchisme contemporain. En effet, certains auteurs classiques de ce courant vivent leur anarchisme dans le moment présent contrairement à ce que laissent entendre implicitement les chercheurs qui se sont penchés sur l’anarchisme contemporain. Nous analysons les cas d’auteurs anarchistes de la première moitié du 20e siècle comme Alexander Berkman, Emma Goldman, Joseph J. Cohen, Albert Libertad, Émile Armand et Rirette Maîtrejean. Une analyse de la colonie libertaire d’Aiglemont complète le tableau. Notre approche centrée sur l’étude des pratiques militantes repose sur trois conceptions idéal-typiques. Nous considérons trois types de pratiques anarchistes : l’action anarchiste de type insurrectionnel, de type syndicaliste et de type éducationnisteréalisateur. Nous concluons que les pratiques du mouvement anarchiste contemporain s’apparentent aux pratiques de certains anarchistes classiques, c’est-à-dire les pratiques de type éducationniste-réalisateur.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

La non-violence fait référence à une idéologie et un ensemble de pratiques qui ont pour caractéristique commune de rejeter la violence sous toutes ses formes dans l’actualisation quotidienne. La non-violence est cependant devenue également un outil auquel certains recourrent dans des objectifs qui ne servent pas nécessairement le bien commun. En d’autres termes, la non-violence n’est pas systématiquement un outil de paix. Elle est un moyen d’obtenir ce que l’on veut, sans recourir à la violence. Cette thèse propose une vision de la non-violence au service du bien commun. Elle puise dans l’historicité de grands événements et acteurs qui ont utilisé la non-violence pour libérer une collectivité de formes d’oppression qui amenuisaient la dignité humaine. Elle fait référence à des auteurs et acteurs qui ont influencé le théologien processuel David Ray Griffin dans sa propre démarche d’enseignement et de recherche théologiques sur une quarantaine d’années, soient de la guerre du Vietnam à celle d’Iraq. Les dates survolées vont de 1968 à 2008. Une première démarche entreprise par la recherche est de comprendre le plus précisément possible quelles sont les avenues les plus récentes concernant la non-violence et d’explorer ses influences sur la vie et la carrière du théologien processuel États-Unien David Ray Griffin. En second lieu, une rétrospective historique des événements marquants aux États-Unis permet de cerner le contexte au sein duquel Griffin a évolué et comment son discours a laissé transparaître ces influences historiques, sociales et académiques. Une analyse plus centrée sur la politique extérieure des États-Unis en matière d’économie et de militarisme aiguille vers l’identification de signes que Griffin qualifie lui-même d’anti-théologiques, ce qui l’incite à élaborer une vision paradigmatique globalisante, équilibrée selon lui, où les ressources planétaires sont redistribuées dans un souci d’équité et de justice. Pour ce faire, un tribunal international, une religion globale, à l’image de ce que propose la pensée processuelle whiteheadienne-hartshornienne sont proposés. Griffin en brosse les grands traits dans un discours où l’exhortation s’assortit d’une méthodologie et d’une pédagogie éprouvés depuis 40 ans. Une grille d’analyse des textes griffiniens est par la suite élaborée, structurant les différentes composantes fondamentales de sa pensée. Un modèle d’intégration des valeurs de la non-violence est dégagé des lectures, applicable à d’autres disciplines. Appuyé sur une tradition authentique d’auteurs non-violents, David Ray Griffin présente les caractéristiques d’un homme de paix, duquel les idéaux débordent le cadre national pour rejoindre le planétaire, dans une visée résolument sotériologique. Cette visée devient urgente alors que les événements des attentats terroristes du World Trade Center du 11 septembre 2001 font dire à Griffin que non seulement les États-Unis sont engagés dans une démarche impérialiste démoniaque, mais qu’ils contribuent de manière accélérée à la destruction de la planète. Il faut absolument, croit-il, renverser le courant et devenir, pour le monde, un leader de la réparation des écosystèmes, des économies et des sociétés. S’adjoignant des auteurs d’autres disciplines, et toujours dans un cadre processuel, Griffin entreprend le long périple pédagogique qu’est celui de convaincre le plus grand nombre d’individus possible que le temps est venu d’agir.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

Cette recherche porte un regard critique sur les interfaces de spatialisation sonore et positionne la composition de musique spatiale, un champ d’étude en musique, à l’avant plan d’une recherche en design. Il détaille l’approche de recherche qui est centrée sur le processus de composition de musique spatiale et les modèles mentaux de compositeurs électroacoustiques afin de livrer des recommandations de design pour le développement d’une interface de spatialisation musicale nommée Centor. Cette recherche montre qu’un processus de design mené à l’intersection du design d’interface, du design d’interaction et de la théorie musicale peut mener à une proposition pertinente et innovatrice pour chacun des domaines d’étude. Nous présentons la recherche et le développement du concept de spatialisation additive, une méthode de spatialisation sonore par patrons qui applique le vocabulaire spectromorphologique de Denis Smalley. C’est un concept d’outil de spatialisation pour le studio qui complémente les interfaces de composition actuelles et ouvre un nouveau champ de possibilités pour l’exploration spatiale en musique électroacoustique. La démarche de recherche présentée ici se veut une contribution au domaine du design d’interfaces musicales, spécifiquement les interfaces de spatialisation, mais propose aussi un processus de design pour la création d’interfaces numériques d’expression artistique.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

Thrasymaque de Chalcédoine, un sophiste de renom dans l'Athènes du Ve siècle av. J.C. est présenté comme l'interlocuteur principal de Socrate dans le livre I de la République. Il y est surtout question de la justice et des implications qui en découlent, Socrate et Thrasymaque ne s'entendant évidemment pas sur la nature de la justice. Thrasymaque, poussé par le questionnement constant de Socrate, en vient à formuler différentes thèses sur la justice, notamment : «Je soutiens, moi, que le juste n'est rien d'autre que l'intérêt du plus fort» (Rép. 338c) et «la justice et le juste constituent en réalité le bien d'un autre.» (Rép. 343c) Parallèlement, il oppose au philosophe une vision de la justice difficile à accepter, mais aussi difficile à réfuter : celui qui commet l'injustice est plus heureux que celui qui agit en fonction de la justice. Ainsi, pour Thrasymaque, l'injuste est meilleur que le juste et est plus heureux, car l'injustice est plus profitable pour soi-même. Selon cette vision, qu'est-ce donc que la justice, et en quoi n'est-elle pas profitable pour soi-même? L'objectif de ce mémoire sera de faire ressortir positivement la conception de la justice de Thrasymaque, car c'est avec elle qu'entre en conflit la recherche du bonheur. En effet, si la justice est la représentation des intérêts du dirigeant, comme l'avance le sophiste, alors être juste n'est rien d'autre qu'agir en fonction des intérêts d'autrui et non de soi-même. Cependant, dans une Cité où les individus sont sous la gouverne de la loi, il n'est pas si simple d'agir toujours selon ses propres intérêts lorsque ceux-ci sont contraires à la justice. C'est pourquoi il sera également pertinent de s'attarder aux caractéristiques et aux vertus qu'un individu doit posséder, selon Thrasymaque, pour être heureux. Nous essaierons donc de dégager de la pensée de Thrasymaque un modèle de vie à suivre : le κρείττων. En dernière analyse, nous mettrons en relief la position de Thrasymaque avec la critique platonicienne. Pour Socrate, la position voulant que l'injustice soit profitable est difficile, car il lui faudra montrer que c'est en fait la justice qui apporte le bonheur, en tant qu'elle est une vertu de l'âme.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

La présente étude se propose de dégager les significations successives qu’emprunte le fameux paradoxe socratique du mal involontaire dans l’œuvre de Platon. Pour ce faire, notre propos se déclinera en trois principaux développements : 1) le premier consistera à clarifier le sens que recouvraient les catégories du volontaire et de l’involontaire dans l’Antiquité, de manière à éviter toute confusion anachronique avec les acceptions modernes de ces mêmes notions ; 2) le second tâchera de mettre au jour le postulat anthropologique qui fonde chez Platon l’idée qu’aucun homme ne saurait agir méchamment de son plein gré ; 3) le troisième exposera à tour de rôle les trois grands dispositifs de disculpation qu’élabore Platon dans son œuvre : les dispositifs de l’âme ignorante, de l’âme renversée et de l’âme malade. Nous montrerons ainsi comment Platon, à rebours de la théodicée chrétienne classique, cherche à blanchir l’homme de toute implication morale véritable dans la genèse causale de ses « mauvaises » actions.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

Le remodelage cardiaque est le processus par lequel la structure ou la fonction cardiaque change en réponse à un déséquilibre pathophysiologique tel qu'une maladie cardiaque, un contexte d'arythmie prolongée ou une modification de l'équilibre hormonal. Le système rénine-angiotensine (SRA) est un système hormonal largement étudié et il est impliqué dans de nombreuses activités associées au remodelage cardiovasculaire. L’existence d'un système circulatoire couplé à un système de tissus locaux est une représentation classique, cependant de nouvelles données suggèrent un SRA indépendant et fonctionnellement actif à l'échelle cellulaire. La compréhension de l'activité intracellulaire du SRA pourrait mener à de nouvelles pistes thérapeutiques qui pourraient prévenir un remodelage cardiovasculaire défavorable. L'objectif de cette thèse était d'élucider le rôle du SRA intracellulaire dans les cellules cardiaques. Récemment, les récepteurs couplés aux protéines G (RCPG), les protéines G et leurs effecteurs ont été détectés sur des membranes intracellulaires, y compris sur la membrane nucléaire, et les concepts de RCPG intracellulaires fonctionnels sont en voie d'être acceptés comme une réalité. Nous avons dès lors fait l'hypothèse que la signalisation du SRA délimitant le noyau était impliquée dans le contrôle de l'expression des gènes cardiaques. Nous avons démontré la présence de récepteurs d'angiotensine de type-1 (AT1R) et de type-2 (AT2R) nucléaires dans les cardiomyocytes ventriculaires adultes et dans une fraction nucléaire purifiée de tissu cardiaque. Des quantités d'Ang II ont été détectées dans du lysat de cardiomyocytes et des microinjections d'Ang-II-FITC ont donné lieu à des liaisons préférentielles aux sites nucléaires. L'analyse transcriptionnelle prouve que la synthèse d'ARN de novo dans des noyaux isolés stimulés à l'Ang-II, et l'expression des ARNm de NF-κB étaient beaucoup plus importants lorsque les noyaux étaient exposés à de l'Ang II par rapport aux cardiomyocytes intacts. La stimulation des AT1R nucléaires a engendré une mobilisation de Ca2+ via les récepteurs de l'inositol trisphosphate (IP3R), et le blocage des IP3R a diminué la réponse transcriptionnelle. Les méthodes disponibles actuellement pour l'étude de la signalisation intracrine sont limitées aux méthodes indirectes. L'un des objectifs de cette thèse était de synthétiser et caractériser des analogues d'Ang-II cellule-perméants afin d’étudier spécifiquement dans les cellules intactes l'activité intracellulaire du SRA. Nous avons synthétisé et caractérisé pharmacologiquement des analogues photosensibles Ang-II encapsulée en incorporant un groupement 4,5-diméthoxy-2-nitrobenzyl (DMNB) photoclivable sur les sites actifs identifiés du peptide. Chacun des trois analogues d'Ang II encapsulée synthétisés et purifiés: [Tyr(DMNB)4]Ang-II, Ang-II-ODMNB et [Tyr(DMNB)4]Ang-II-ODMNB a montré une réduction par un facteur deux ou trois de l'affinité de liaison envers AT1R et AT2R dans les dosages par liaison compétitive et une activité réduite dans la contraction de l'aorte thoracique. La photostimulation de [Tyr(DMNB)4]Ang-II dans des cellules HEK a augmenté la phosphorylation d'ERK1/2 (via AT1R) et la production de cGMP (via AT2R) alors que dans les cardiomyocytes isolés elle générait une augmentation de Ca2+ nucléoplasmique et initiait la synthèse d'ARNr 18S et d'ARNm du NF-κB. Les fibroblastes sont les principaux générateurs de remodelage cardiaque structurel, et les fibroblastes auriculaires sont plus réactifs aux stimuli profibrotiques que les fibroblastes ventriculaires. Nous avons émis l'hypothèse que l’Ang-II intracellulaire et l'activation des AT1R et AT2R nucléaires associés contrôlaient les profils d'expression des gènes des fibroblastes via des systèmes de signalisation distincts et de ce fait jouaient un rôle majeur dans le développement de la fibrose cardiaque. Nous avons remarqué que les fibroblastes auriculaires expriment l’AT1R et l’AT2R nucléaire et l'Ang-II au niveau intracellulaire. L’expression d'AT1R nucléaire a été régulés positivement dans les cas d’insuffisance cardiaque (IC), tandis que l'AT2R nucléaire a été glycosylé post-traductionnellement. La machinerie protéique des protéines G, y compris Gαq/11, Gαi/3, et Gβ, a été observée dans des noyaux isolés de fibroblastes. AT1R et AT2R régulent l'initiation de la transcription du fibroblaste via les voies de transduction de signal d'IP3R et du NO. La photostimulation de [Tyr(DMNB)4]Ang-II dans une culture de fibroblastes auriculaire déclenche la libération de Ca2+ nucléoplasmique, la prolifération, et la synthèse et sécrétion de collagène qui ne sont pas inhibées par les bloqueurs d'AT1R et/ou AT2R extracellulaires.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

La révision du code est un procédé essentiel quelque soit la maturité d'un projet; elle cherche à évaluer la contribution apportée par le code soumis par les développeurs. En principe, la révision du code améliore la qualité des changements de code (patches) avant qu'ils ne soient validés dans le repertoire maître du projet. En pratique, l'exécution de ce procédé n'exclu pas la possibilité que certains bugs passent inaperçus. Dans ce document, nous présentons une étude empirique enquétant la révision du code d'un grand projet open source. Nous investissons les relations entre les inspections des reviewers et les facteurs, sur les plans personnel et temporel, qui pourraient affecter la qualité de telles inspections.Premiérement, nous relatons une étude quantitative dans laquelle nous utilisons l'algorithme SSZ pour détecter les modifications et les changements de code favorisant la création de bogues (bug-inducing changes) que nous avons lié avec l'information contenue dans les révisions de code (code review information) extraites du systéme de traçage des erreurs (issue tracking system). Nous avons découvert que les raisons pour lesquelles les réviseurs manquent certains bogues était corrélées autant à leurs caractéristiques personnelles qu'aux propriétés techniques des corrections en cours de revue. Ensuite, nous relatons une étude qualitative invitant les développeurs de chez Mozilla à nous donner leur opinion concernant les attributs favorables à la bonne formulation d'une révision de code. Les résultats de notre sondage suggèrent que les développeurs considèrent les aspects techniques (taille de la correction, nombre de chunks et de modules) autant que les caractéristiques personnelles (l'expérience et review queue) comme des facteurs influant fortement la qualité des revues de code.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

Le domaine biomédical est probablement le domaine où il y a les ressources les plus riches. Dans ces ressources, on regroupe les différentes expressions exprimant un concept, et définit des relations entre les concepts. Ces ressources sont construites pour faciliter l’accès aux informations dans le domaine. On pense généralement que ces ressources sont utiles pour la recherche d’information biomédicale. Or, les résultats obtenus jusqu’à présent sont mitigés : dans certaines études, l’utilisation des concepts a pu augmenter la performance de recherche, mais dans d’autres études, on a plutôt observé des baisses de performance. Cependant, ces résultats restent difficilement comparables étant donné qu’ils ont été obtenus sur des collections différentes. Il reste encore une question ouverte si et comment ces ressources peuvent aider à améliorer la recherche d’information biomédicale. Dans ce mémoire, nous comparons les différentes approches basées sur des concepts dans un même cadre, notamment l’approche utilisant les identificateurs de concept comme unité de représentation, et l’approche utilisant des expressions synonymes pour étendre la requête initiale. En comparaison avec l’approche traditionnelle de "sac de mots", nos résultats d’expérimentation montrent que la première approche dégrade toujours la performance, mais la seconde approche peut améliorer la performance. En particulier, en appariant les expressions de concepts comme des syntagmes stricts ou flexibles, certaines méthodes peuvent apporter des améliorations significatives non seulement par rapport à la méthode de "sac de mots" de base, mais aussi par rapport à la méthode de Champ Aléatoire Markov (Markov Random Field) qui est une méthode de l’état de l’art dans le domaine. Ces résultats montrent que quand les concepts sont utilisés de façon appropriée, ils peuvent grandement contribuer à améliorer la performance de recherche d’information biomédicale. Nous avons participé au laboratoire d’évaluation ShARe/CLEF 2014 eHealth. Notre résultat était le meilleur parmi tous les systèmes participants.