751 resultados para Conditionnement classique


Relevância:

10.00% 10.00%

Publicador:

Resumo:

Les dimères chromosomiques se produisant lors de la réparation de chromosomes circulaires peuvent être dommageables pour les bactéries en bloquant la ségrégation des chromosomes et le bon déroulement de la division cellulaire. Pour remédier à ce problème, les bactéries utilisent le système Xer de monomérisation des chromosomes. Celui-ci est composé de deux tyrosine recombinases, XerC et XerD, qui vont agir au niveau du site dif et procéder à une recombinaison qui aura pour effet de séparer les deux copies de l’ADN. Le site dif est une séquence d’ADN où deux répétitions inversées imparfaites séparées par six paires de bases permettent la liaison de chacune des recombinases. Cette recombinaison est régulée à l’aide de FtsK, une protéine essentielle de l’appareil de division. Ce système a été étudié en profondeur chez Escherichia coli et a aussi été caractérisée dans une multitude d’espèces variées, par exemple Bacillus subtilis. Mais dans certaines espèces du groupe des Streptococcus, des études ont été en mesure d’identifier une seule recombinase, XerS, agissant au niveau d’un site atypique nommée difSL. Peu de temps après, un second système utilisant une seule recombinase a été identifié chez un groupe des epsilon-protéobactéries. La recombinase fut nommée XerH et le site de recombinaison, plus similaire à difSL qu’au site dif classique, difH. Dans cette thèse, des résultats d’expériences in vitro sur les deux systèmes sont présentés, ainsi que certains résultats in vivo. Il est démontré que XerS est en mesure de se lier de façon coopérative à difSL et que cette liaison est asymétrique, puisque XerS est capable de se lier à la moitié gauche du site prise individuellement mais non à la moitié droite. Le clivage par XerS est aussi asymétrique, étant plus efficace au niveau du brin inférieur. Pour ce qui est de XerH, la liaison à difH est beaucoup moins coopérative et n’a pas la même asymétrie. Par contre, le clivage est asymétrique lui aussi. La comparaison de ces deux systèmes montrent qu’ils ne sont pas homologues et que les systèmes Xer à seule recombinase existent sous plusieurs versions. Ces résultats représentent la première découverte d’un espaceur de 11 paires de bases chez les tyrosine recombinases ainsi que la première étude in vitro sur XerH.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

L’irradiation (IR) est utilisée dans le traitement de plusieurs cancers et désordres hématologiques, en particulier dans les protocoles de conditionnement précédents les transplantations de moelle osseuse. L’emploi de doses réduites d’IR semble favoriser le succès de la prise de greffe. Cette observation soulève un point de plus en plus discuté dans la littérature, soit l’importance de l’intégrité du microenvironnement pour la transplantation et le bon fonctionnement de l’hématopoïèse. L’IR induit la sénescence des cellules stromales de la moelle osseuse in vitro. Ce mécanisme de défense cellulaire entraînant un arrêt de prolifération permanent est également observé in vivo dans différents systèmes, mais n’a pas encore été étudié dans le contexte de la niche hématopoïétique. Les travaux présentés dans cette thèse ont pour objectif de déterminer si l’IR induit la sénescence des cellules stromales de la moelle osseuse et si une telle induction altère les fonctions hématopoïétiques. Nos résultats ont permis de démontrer pour la première fois qu’une IR corporelle totale induit effectivement la sénescence des cellules stromales de la moelle osseuse. En outre, cette altération du microenvironnement affecte la lymphopoïèse B de façon Ink4a/Arf-dépendante (1er article). De plus, les modifications systémiques qui résultent de l’IR compromettent l’homéostasie osseuse en augmentant la résorption de l’os, sans toutefois diminuer la formation de celui-ci (2e article). Ces données nous permettent de mieux comprendre les effets de la sénescence des cellules stromales de la moelle osseuse sur les fonctions hématopoïétiques. Par ailleurs, elles suggèrent que l’emploi de drogues et/ou de procédés n’induisant pas la sénescence des cellules stromales de l’os offrirait un meilleur pronostic à long terme pour les patients.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Malgré la politique d’ouverture à l’immigration, à la diversité et au multiculturalisme du Québec, les immigrants récents rencontrent de nombreuses barrières sur le marché du travail. Selon la vision néo-classique, le capital humain détermine l’intégration des immigrants et leur degré de déqualification. Bien que l’origine puisse influencer les caractéristiques professionnelles et personnelles des immigrants qualifiés, certains d’entre eux peuvent être de même origine mais avoir des caractéristiques différentes. L’expérience migratoire, définie comme le fait pour un individu d’avoir émigré une 1ère fois de son pays d’origine vers un pays étranger, avant d’émigrer de nouveau de ce pays vers un 3ème, pourrait modifier ces caractéristiques du capital humain et qui influence l’intégration des immigrants ainsi que leur degré de déqualification. Arrivés d’un pays très diversifié, étant instruits, et allophones, les immigrants d’ex-URSS se constituent un groupe représentatif pour cette étude. De surcroît, certains immigrants de ce groupe possèdent une expérience migratoire. Cette recherche a pour but d’examiner le rôle de l’expérience migratoire antérieure dans l’intégration des immigrants russophones sur le marché du travail québécois et de voir son impact sur la présence et le degré de déqualification. L’approche qualitative adoptée pour ce travail permet d’observer pleinement les opinions des immigrants quant à leur intégration professionnelle et d’examiner l’effet de l’expérience migratoire. Nous avons découvert que l’expérience migratoire peut modifier la situation des immigrants sur le marché du travail. D’une part, elle leur permet d’acquérir un diplôme et une expérience de pays économiquement développés, ce qui a plus de valeur au Québec que les diplômes et l’expérience de pays d’ex-URSS. En plus, cette expérience permet aux immigrants d’améliorer leurs compétences linguistiques. D’autre part, l’expérience migratoire peut modifier les caractéristiques comportementales, telles que les méthodes de recherche d’emploi ou l’adoption d’un comportement ouvert et flexible qui peut aider à l’intégration. De surcroît, l’amélioration des caractéristiques professionnelles et personnelles par une expérience migratoire peut avoir un effet de compensation qui diminue l’effet de la stratégie familiale sur la présence et le degré de déqualification. En somme, nous pouvons conclure que l’expérience migratoire antérieure a un effet sur l’intégration des immigrants russophones sur le marché du travail québécois, et particulièrement, sur la présence et le degré de déqualification.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Dans un premier temps, nous avons modélisé la structure d’une famille d’ARN avec une grammaire de graphes afin d’identifier les séquences qui en font partie. Plusieurs autres méthodes de modélisation ont été développées, telles que des grammaires stochastiques hors-contexte, des modèles de covariance, des profils de structures secondaires et des réseaux de contraintes. Ces méthodes de modélisation se basent sur la structure secondaire classique comparativement à nos grammaires de graphes qui se basent sur les motifs cycliques de nucléotides. Pour exemplifier notre modèle, nous avons utilisé la boucle E du ribosome qui contient le motif Sarcin-Ricin qui a été largement étudié depuis sa découverte par cristallographie aux rayons X au début des années 90. Nous avons construit une grammaire de graphes pour la structure du motif Sarcin-Ricin et avons dérivé toutes les séquences qui peuvent s’y replier. La pertinence biologique de ces séquences a été confirmée par une comparaison des séquences d’un alignement de plus de 800 séquences ribosomiques bactériennes. Cette comparaison a soulevée des alignements alternatifs pour quelques unes des séquences que nous avons supportés par des prédictions de structures secondaires et tertiaires. Les motifs cycliques de nucléotides ont été observés par les membres de notre laboratoire dans l'ARN dont la structure tertiaire a été résolue expérimentalement. Une étude des séquences et des structures tertiaires de chaque cycle composant la structure du Sarcin-Ricin a révélé que l'espace des séquences dépend grandement des interactions entre tous les nucléotides à proximité dans l’espace tridimensionnel, c’est-à-dire pas uniquement entre deux paires de bases adjacentes. Le nombre de séquences générées par la grammaire de graphes est plus petit que ceux des méthodes basées sur la structure secondaire classique. Cela suggère l’importance du contexte pour la relation entre la séquence et la structure, d’où l’utilisation d’une grammaire de graphes contextuelle plus expressive que les grammaires hors-contexte. Les grammaires de graphes que nous avons développées ne tiennent compte que de la structure tertiaire et négligent les interactions de groupes chimiques spécifiques avec des éléments extra-moléculaires, comme d’autres macromolécules ou ligands. Dans un deuxième temps et pour tenir compte de ces interactions, nous avons développé un modèle qui tient compte de la position des groupes chimiques à la surface des structures tertiaires. L’hypothèse étant que les groupes chimiques à des positions conservées dans des séquences prédéterminées actives, qui sont déplacés dans des séquences inactives pour une fonction précise, ont de plus grandes chances d’être impliqués dans des interactions avec des facteurs. En poursuivant avec l’exemple de la boucle E, nous avons cherché les groupes de cette boucle qui pourraient être impliqués dans des interactions avec des facteurs d'élongation. Une fois les groupes identifiés, on peut prédire par modélisation tridimensionnelle les séquences qui positionnent correctement ces groupes dans leurs structures tertiaires. Il existe quelques modèles pour adresser ce problème, telles que des descripteurs de molécules, des matrices d’adjacences de nucléotides et ceux basé sur la thermodynamique. Cependant, tous ces modèles utilisent une représentation trop simplifiée de la structure d’ARN, ce qui limite leur applicabilité. Nous avons appliqué notre modèle sur les structures tertiaires d’un ensemble de variants d’une séquence d’une instance du Sarcin-Ricin d’un ribosome bactérien. L’équipe de Wool à l’université de Chicago a déjà étudié cette instance expérimentalement en testant la viabilité de 12 variants. Ils ont déterminé 4 variants viables et 8 létaux. Nous avons utilisé cet ensemble de 12 séquences pour l’entraînement de notre modèle et nous avons déterminé un ensemble de propriétés essentielles à leur fonction biologique. Pour chaque variant de l’ensemble d’entraînement nous avons construit des modèles de structures tertiaires. Nous avons ensuite mesuré les charges partielles des atomes exposés sur la surface et encodé cette information dans des vecteurs. Nous avons utilisé l’analyse des composantes principales pour transformer les vecteurs en un ensemble de variables non corrélées, qu’on appelle les composantes principales. En utilisant la distance Euclidienne pondérée et l’algorithme du plus proche voisin, nous avons appliqué la technique du « Leave-One-Out Cross-Validation » pour choisir les meilleurs paramètres pour prédire l’activité d’une nouvelle séquence en la faisant correspondre à ces composantes principales. Finalement, nous avons confirmé le pouvoir prédictif du modèle à l’aide d’un nouvel ensemble de 8 variants dont la viabilité à été vérifiée expérimentalement dans notre laboratoire. En conclusion, les grammaires de graphes permettent de modéliser la relation entre la séquence et la structure d’un élément structural d’ARN, comme la boucle E contenant le motif Sarcin-Ricin du ribosome. Les applications vont de la correction à l’aide à l'alignement de séquences jusqu’au design de séquences ayant une structure prédéterminée. Nous avons également développé un modèle pour tenir compte des interactions spécifiques liées à une fonction biologique donnée, soit avec des facteurs environnants. Notre modèle est basé sur la conservation de l'exposition des groupes chimiques qui sont impliqués dans ces interactions. Ce modèle nous a permis de prédire l’activité biologique d’un ensemble de variants de la boucle E du ribosome qui se lie à des facteurs d'élongation.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Cette recherche porte sur le langage cinématographique (ou mode de représentation) adopté par Mizoguchi en contraste avec le style classique hollywoodien. Notre hypothèse est que le refus de Mizoguchi de recourir au découpage classique et au gros-plan procurerait au spectateur une expérience de perception qui tendrait à se rapprocher de celle vécue par un spectateur de théâtre ou le témoin d’une action se déroulant dans notre monde physique. Mizoguchi a débuté son métier au début des années 1920. Le cinéma japonais venait tout juste de prendre la voie d’un art nouveau en quittant son statut de simple captation de spectacles théâtraux. L’industrie cinématographique japonaise était alors en incubation marquée par diverses influences occidentales. Nous nous pencherons plus particulièrement sur les questions stylistiques à partir du moment où le cinéma japonais s’engageait dans le parlant en imitant le style classique hollywoodien. Ce cinéma dominant devenait une norme que Mizoguchi décida de ne pas suivre pour préférer un style caractérisé par des plans-séquences. Ce style plus « neutre » et «objectif » allait être encensé par Bazin après la guerre au moment où ce dernier découvrit notamment Welles et Wyler. À partir de plusieurs extraits filmiques, nous analysons le plan-séquence mizoguchien comme substitution à une série de plans rapprochés qui se serait imposé normalement avec le style classique hollywoodien. Et ce, afin de discuter des enjeux de réalisme et de théâtralité soulevés par Bazin.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

La version intégrale de ce mémoire est disponible uniquement pour consultation individuelle à la Bibliothèque de musique de l'Université de Montréal (www.bib.umontreal.ca)

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Travail réalisé à l'École de bibliothéconomie et des sciences de l'information (EBSI), Université de Montréal, sous la direction de Mme Audrey Laplante dans le cadre du cours SCI6850 Recherche individuelle, à l'automne 2012.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

L’introduction aux concepts unificateurs dans l’enseignement des mathématiques privilégie typiquement l’approche axiomatique. Il n’est pas surprenant de constater qu’une telle approche tend à une algorithmisation des tâches pour augmenter l’efficacité de leur résolution et favoriser la transparence du nouveau concept enseigné (Chevallard, 1991). Cette réponse classique fait néanmoins oublier le rôle unificateur du concept et n’encourage pas à l’utilisation de sa puissance. Afin d’améliorer l’apprentissage d’un concept unificateur, ce travail de thèse étudie la pertinence d’une séquence didactique dans la formation d’ingénieurs centrée sur un concept unificateur de l’algèbre linéaire: la transformation linéaire (TL). La notion d’unification et la question du sens de la linéarité sont abordées à travers l’acquisition de compétences en résolution de problèmes. La séquence des problèmes à résoudre a pour objet le processus de construction d’un concept abstrait (la TL) sur un domaine déjà mathématisé, avec l’intention de dégager l’aspect unificateur de la notion formelle (Astolfi y Drouin, 1992). À partir de résultats de travaux en didactique des sciences et des mathématiques (Dupin 1995; Sfard 1991), nous élaborons des situations didactiques sur la base d’éléments de modélisation, en cherchant à articuler deux façons de concevoir l’objet (« procédurale » et « structurale ») de façon à trouver une stratégie de résolution plus sûre, plus économique et réutilisable. En particulier, nous avons cherché à situer la notion dans différents domaines mathématiques où elle est applicable : arithmétique, géométrique, algébrique et analytique. La séquence vise à développer des liens entre différents cadres mathématiques, et entre différentes représentations de la TL dans les différents registres mathématiques, en s’inspirant notamment dans cette démarche du développement historique de la notion. De plus, la séquence didactique vise à maintenir un équilibre entre le côté applicable des tâches à la pratique professionnelle visée, et le côté théorique propice à la structuration des concepts. L’étude a été conduite avec des étudiants chiliens en formation au génie, dans le premier cours d’algèbre linéaire. Nous avons mené une analyse a priori détaillée afin de renforcer la robustesse de la séquence et de préparer à l’analyse des données. Par l’analyse des réponses au questionnaire d’entrée, des productions des équipes et des commentaires reçus en entrevus, nous avons pu identifier les compétences mathématiques et les niveaux d’explicitation (Caron, 2004) mis à contribution dans l’utilisation de la TL. Les résultats obtenus montrent l’émergence du rôle unificateur de la TL, même chez ceux dont les habitudes en résolution de problèmes mathématiques sont marquées par une orientation procédurale, tant dans l’apprentissage que dans l’enseignement. La séquence didactique a montré son efficacité pour la construction progressive chez les étudiants de la notion de transformation linéaire (TL), avec le sens et les propriétés qui lui sont propres : la TL apparaît ainsi comme un moyen économique de résoudre des problèmes extérieurs à l’algèbre linéaire, ce qui permet aux étudiants d’en abstraire les propriétés sous-jacentes. Par ailleurs, nous avons pu observer que certains concepts enseignés auparavant peuvent agir comme obstacles à l’unification visée. Cela peut ramener les étudiants à leur point de départ, et le rôle de la TL se résume dans ces conditions à révéler des connaissances partielles, plutôt qu’à guider la résolution.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Thèse réalisée en cotutelle entre l'Université de Montréal et l'Université de Technologie de Troyes

Relevância:

10.00% 10.00%

Publicador:

Resumo:

La structure du cartilage articulaire adulte est caractérisée par la présence de couches créées par l’orientation des fibres de collagène (Benninghoff, 1925). Avant de présenter la structure adulte classique en arcades “de Benninghoff”, le cartilage subit une série de changements au cours de sa maturation (Julkunen et al., 2010; Lecocq et al., 2008). Toutefois, un faible nombre d’études s’est intéressé à la structure du collagène du cartilage articulaire in utero. Notre objectif était d’étudier la maturation de la surface articulaire de l’épiphyse fémorale distale chez le cheval, en employant à la fois l’imagerie par résonance magnétique (IRM) et la microscopie en lumière polarisée après coloration au rouge picrosirius, au niveau de sites utilisés dans les études de réparation tissulaire et de sites prédisposés à l’ostéochondrose (OC). Le but était de décrire le développement normal du réseau de collagène et la relation entre les images IRM et la structure histologique. Des sections provenant de cinq sites de l’épiphyse fémorale distale de 14 fœtus et 10 poulains et adultes ont été colorées au rouge picrosirius, après que le grasset ait été imagé par IRM, dans l’optique de visualiser l’agencement des fibres de collagène de type II. Les deux modalités utilisées, IRM et microscopie en lumière polarisée, ont démontré la mise en place progressive d’une structure en couches du réseau de collagène, avant la naissance et la mise en charge de l’articulation.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Les surfaces de subdivision fournissent une méthode alternative prometteuse dans la modélisation géométrique, et ont des avantages sur la représentation classique de trimmed-NURBS, en particulier dans la modélisation de surfaces lisses par morceaux. Dans ce mémoire, nous considérons le problème des opérations géométriques sur les surfaces de subdivision, avec l'exigence stricte de forme topologique correcte. Puisque ce problème peut être mal conditionné, nous proposons une approche pour la gestion de l'incertitude qui existe dans le calcul géométrique. Nous exigeons l'exactitude des informations topologiques lorsque l'on considère la nature de robustesse du problème des opérations géométriques sur les modèles de solides, et il devient clair que le problème peut être mal conditionné en présence de l'incertitude qui est omniprésente dans les données. Nous proposons donc une approche interactive de gestion de l'incertitude des opérations géométriques, dans le cadre d'un calcul basé sur la norme IEEE arithmétique et la modélisation en surfaces de subdivision. Un algorithme pour le problème planar-cut est alors présenté qui a comme but de satisfaire à l'exigence topologique mentionnée ci-dessus.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Réalisé en majeure partie sous la tutelle de feu le Professeur Paul Arminjon. Après sa disparition, le Docteur Aziz Madrane a pris la relève de la direction de mes travaux.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Le dopage fait l’objet d’une intense lutte par les autorités sportives. Cet article s’intéresse à l’encadrement des renseignements personnels des athlètes qui y sont soumis. En effet, la lutte au dopage s’opère principalement par le traitement des nombreuses informations de santé que les athlètes fournissent dans le cadre de certaines procédures. L’article étudie dans une première partie les fondements de la lutte antidopage et la structure du sport aux niveaux international et canadien dans le but de contextualiser l’analyse de la protection des renseignements personnels. La seconde partie porte dans un premier temps sur le cadre général de la protection des renseignements personnels, puis sur les deux « outils » de la lutte au dopage : les autorisations pour usage à des fins thérapeutiques et les contrôles antidopage. Dans le premier cas, la protection des renseignements personnels s’effectue selon le modèle des aires de partage, où plusieurs personnes ont un accès simultané aux renseignements afin de fournir une prestation donnée. Dans le second cas, la protection est plus classique mais a la particularité de se confondre partiellement avec les mesures visant à protéger l’intégrité ­ et la validité ­ des contrôles.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Dans cet article, l’auteur Ejan Mackaay présente les caractéristiques fondamentales du cyberespace et analyse les relations économiques et juridiques entre les acteurs du marché virtuel de l’Internet. Cette analyse s'inscrit en marge des travaux de Niva Elkin-Koren et Eli Salzberger, dont elle suit le plan. D'une part, il y est précisé que le marché virtuel de l’Internet remet en question l’analyse classique des interactions entre les acteurs économiques. La nouvelle analyse néo-institutionnel présente un cadre analytique qui relève plus adéquatement les relations complexes entre les acteurs économiques du marché virtuel que les théories économiques classiques. Cette nouvelle approche se fonde sur le concept que les acteurs économiques utilisent les ressources afin d’être intégrés au sein des institutions les plus actives et efficaces. D'autre part, il est fait mention que le cyberespace présente plusieurs caractéristiques d’un marché économique. Toutefois, étant virtuel, le cyberespace ne présente pas les mêmes limites qu’un marché physique. En effet, dans ce dernier, certaines limites physiques imposent diverses règles de comportement. Le législateur doit donc prendre conscience de l’absence de telles limites et des normes qu’elles imposaient afin de légiférer adéquatement sur les échanges dans le cyberespace. Ensuite, afin d’illustrer les divergences entre les marchés physiques et virtuels, une analyse est faite au regard des principaux échecs de marchés, soit l’établissement d’un monopole, l’accès aux biens publics, les informations imparfaites et les externalités négatives. Un monopole est un échec de marché qui restreint considérablement la compétition, peut être accrut par l’effet boule de neige et, s’il n’est pas contrôlé, peut mener à un effet de blocage ou d’exclusion de certains acteurs. Le second échec analysé est l’accès aux biens publics. Dans le cyberespace, le principal bien public est l’information qui peut être échangée entre les utilisateurs. Toutefois, certaines règles de droits d’auteur et de propriété intellectuelle peuvent considérablement limiter l’accès à ce bien. L’information incomplète des acteurs économiques constitue un autre échec de marché, mais le cyberespace offre plusieurs moyens d’accéder à l’information pertinente aux transactions éclairées. Enfin, les externalités négatives peuvent généralement être considérées comme des effets secondaires des échanges commerciaux. Toutefois il est souligné que ces dernières ont un effet très limité dans le cyberespace, étant donné le plus grand nombre d’options de retrait et la facilité accrue de l’exercer. Enfin, il est rappelé que le commerce électronique et le cyberespace remettent en questions toutes les théories économiques et politiques traditionnelles et offrent une perspective nouvelle sur le phénomène de la formation des normes.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

"Le thème de la nudité présente un double intérêt. D’une part, il correspond à ce que Marcel Mauss appelait un fait social total. Non seulement il se situe au carrefour de plusieurs disciplines : histoire de l’art, sociologie, anthropologie, droit, mais il est à la confluence des principaux aspects de l’activité humaine. L’économique, dans la mesure où il implique la fabrication de vêtements et d’ornements destinés à orner ou dissimuler la nudité ; le politique, puisque la nudité correspond souvent à une situation de marginalité, sinon d’opposition, voire à des changements de valeurs dominantes ; la morale, évidemment, puisque la nudité possède des relations évidentes avec l’honneur ou le déshonneur ; l’affectivité, puisque la nudité peut fonder des relations de solidarité comme nous le verrons dans le cas du nudisme. D’autre part, la nudité paraît intéressante pour le théoricien du droit dans la mesure où elle met en jeu plusieurs types de normativité.La normativité juridique classique, bien entendu, celle qui s’exprime par des textes officiels réprimant ou restreignant la nudité dans l’espace public. La normativité plus floue des moeurs : souvent moins discernable, mais  fréquemment plus rigoureuse que celle du droit. De plus, ces normativités différentes, loin d’être isolées, s’insèrent dans un véritable champ dynamique : elles sont contextualisées, se superposent ou se translatent de l’une à l’autre. En ce sens, il faut considérer que les réglementations de la nudité s’organisent dans un champ juridique où la normalité juridique classique, celle de l’État, ne joue qu’un rôle de polarité qui peut être contesté, dépassé ou sollicité : en somme, la nudité procure au droit des garde-robes supplémentaires."