998 resultados para Modèle du sens commun
Resumo:
Dans Charlot (1931), Philippe Soupault narre la vie imaginaire du célèbre vagabond, à partir des films qu'il a vus et des souvenirs qu'il en a gardés. Mais il la retrace en la poétisant : tenant Charlot pour un « poète au sens le plus pur et le plus fort du terme », l'écrivain accorde son récit à l'image qu'il se fait du personnage. La figuration poétique s'effectue ainsi de manière à la fois thématique et formelle : non seulement le parcours de Charlot voisine par intermittence avec ceux de modèles emblématiques (Orphée, Croniamantal, Rimbaud, Cendrars), mais son existence elle-même est perçue à l'image d'un poème, structurée selon un schéma cyclique. Dès lors, et dans tous les sens du terme, le récit de Soupault peut être défini comme une biographie poétique - par l'existence qu'il restitue, par le style qu'il emploie, par l'émotion qu'il procure.
Resumo:
Contexte & Objectifs: La vancomycine (VCM) est un antibiotique utilisé pour le traitement de certaines infections sévères. C'est un candidat idéal pour le suivi thérapeutique (TDM) car il possède une forte variabilité inter-individuelle, une marge thérapeutique étroite et une relation concentration-efficacité et -toxicité établie. L'objectif de ce travail est de quantifier la variabilité inter-individuelle des concentrations et les facteurs qui l'influencent, et d'évaluer l'adéquation des posologies pour viser les cibles thérapeutiques. Méthodes: Les données ont été récoltées dans le cadre du TDM réalisé en routine au Centre Hospitalier Universitaire Vaudois. Les données pharmacocinétiques ont été analysées par régression linéaire à effet mixte (NONMEM®). Les variables d'intérêt étaient: le sexe, l'âge, le poids, la clairance à la créatinine (CLCRT) et les co-médications. Des simulations ont été réalisées à partir du modèle final afin de déterminer le pourcentage de patients en-dehors des intervalles de concentrations cibles (10-20 mg/L), et toxiques (>30 mg/L) avant et après adaptation posologique de VCM selon la fonction rénale. Résultats: 705 concentrations de VCM ont été mesurées chez 191 patients. Un modèle monocompartimental incluant une variabilité inter-individuelle sur la clairance (CL) et le volume de distribution (Vd) décrit au mieux les données. La CLCRT et la co-administration de diurétiques influencent significativement la CL, et le Vd augmente proportionnellement avec le poids. Ces covariables expliquent 50% et 27% de la variabilité, respectivement. Les simulations ont montré que pour les stades de maladie rénale 3 et 4 le pourcentage de patients en-dehors des cibles est de 51% et 45% et diminue respectivement à 40% et 37% après adaptation posologique. De plus, 15% et 8% des patients avec insuffisance rénale de stade 3 et 4 présentent des concentrations >30 mg/L, seuil qui s'abaisse environs à 5% après adaptation posologique. Discussion: L'importante variabilité des concentrations de VCM est en grande partie expliquée par la CLCRT, la co-administration de diurétiques et le poids. L'administration des posologies recommandées pour les patients avec une maladie rénale de stades 3 et 4 pourrait exposer un nombre significatif de patients à des concentrations en dehors des cibles thérapeutiques, mais paraît corrigées par une adaptation posologique basée sur le TDM.
Resumo:
Au coeur même du premier paquet de sept accords bilatéraux conclu entre la Suisse et la Communauté européenne le 21 juin 1999, l'Accord sur la libre circulation des personnes (ALCP) vise à garantir la libre circulation et à faciliter la prestation de services sur le territoire des parties contractantes. Or la réalisation de ces objectifs dépend avant tout de la mise en oeuvre effective de l'interdiction de discrimination en raison de la nationalité consacrée par l'ALCP, véritable clé de voûte de l'Accord. Le présent ouvrage s'attache, dans un premier temps, à l'analyse du principe de libre circulation et à l'examen du fonctionnement de l'ALCP - examen portant notamment sur le rôle joué par la jurisprudence de la Cour de justice des Communautés européennes dans le cadre de l'interprétation de cet Accord (Partie I). Dans un second temps, cet ouvrage se penche sur la question centrale de l'interdiction de discrimination en raison de la nationalité (Partie II). Pour ce faire, il propose tout d'abord une définition de la notion de discrimination elle-même et détermine ensuite le champ d'application matériel et personnel des principales dispositions de l'ALCP interdisant les discriminations. Dans ce cadre, une attention toute particulière est accordée à la question de la potentielle portée horizontale de ces dispositions. Ensuite, l'ouvrage procède à une analyse complète des principes et dispositions susceptibles de limiter la portée de cette interdiction,avant de conclure par un examen détaillé des conséquences administratives et civiles induites par la présence d'un cas de discrimination effectif.
Resumo:
La chute chez les personnes âgées est considérée comme un problème de santé publique en raison de sa fréquence, de ses conséquences ainsi que de l'efficacité de certain programmes de prévention. La chute est pourtant très souvent non signalée par les personnes ou par les professionnels. Je postule que la chute est un événement traumatisant ; j'examine d'une part son impact sur les trajectoires de personnes à partir de 50 ans et d'autre part l'adaptation à cet événement. Mobilisant différents types de données existantes, ce travail met en évidence les nombreux impacts de la chute au-delà de la santé, et notamment sur les dimensions sociales et sur la qualité de vie ; en comparaison à d'autres événements de santé, la chute présente un effet sur plusieurs indicateurs qui s'exprime tant à court qu'à long terme. J'identifie des facteurs de vulnérabilité à la chute : le moment de survenue de l'événement est un critère déterminant, l'adaptation étant plus difficile quand la chute survient chez des moins de 65 ans ; la gravité de l'événement entrave également la probabilité de s'y adapter. Par contre, les ressources institutionnelles sont sous-utilisées par les personnes concernées et les effets d'un programme généraliste de prévention des chutes fondé sur de l'activité physique et de l'éducation pour la santé sont modestes et ne se maintiennent pas au-delà de l'intervention. Au final, cette thèse apporte une contribution originale à l'étude psychosociale de la chute envisagée au moyen du modèle de la vulnérabilité : ses conclusions permettent d'ajuster des interventions qui devraient prioritairement viser à renforcer les ressources et stratégies individuelles et ensuite à gérer les conséquences identitaires et émotionnelles liées à la chute.
Resumo:
Many three-dimensional (3-D) structures in rock, which formed during the deformation of the Earth's crust and lithosphere, are controlled by a difference in mechanical strength between rock units and are often the result of a geometrical instability. Such structures are, for example, folds, pinch-and-swell structures (due to necking) or cuspate-lobate structures (mullions). These struc-tures occur from the centimeter to the kilometer scale and the related deformation processes con-trol the formation of, for example, fold-and-thrust belts and extensional sedimentary basins or the deformation of the basement-cover interface. The 2-D deformation processes causing these structures are relatively well studied, however, several processes during large-strain 3-D defor-mation are still incompletely understood. One of these 3-D processes is the lateral propagation of these structures, such as fold and cusp propagation in a direction orthogonal to the shortening direction or neck propagation in direction orthogonal to the extension direction. Especially, we are interested in fold nappes which are recumbent folds with amplitudes usually exceeding 10 km and they have been presumably formed by ductile shearing. They often exhibit a constant sense of shearing and a non-linear increase of shear strain towards their overturned limb. The fold axes of the Morcles fold nappe in western Switzerland plunges to the ENE whereas the fold axes in the more eastern Doldenhorn nappe plunges to the WSW. These opposite plunge direc-tions characterize the Rawil depression (Wildstrubel depression). The Morcles nappe is mainly the result of layer parallel contraction and shearing. During the compression the massive lime-stones were more competent than the surrounding marls and shales, which led to the buckling characteristics of the Morcles nappe, especially in the north-dipping normal limb. The Dolden-horn nappe exhibits only a minor overturned fold limb. There are still no 3-D numerical studies which investigate the fundamental dynamics of the formation of the large-scale 3-D structure including the Morcles and Doldenhorn nappes and the related Rawil depression. We study the 3-D evolution of geometrical instabilities and fold nappe formation with numerical simulations based on the finite element method (FEM). Simulating geometrical instabilities caused by sharp variations of mechanical strength between rock units requires a numerical algorithm that can accurately resolve material interfaces for large differences in material properties (e.g. between limestone and shale) and for large deformations. Therefore, our FE algorithm combines a nu-merical contour-line technique and a deformable Lagrangian mesh with re-meshing. With this combined method it is possible to accurately follow the initial material contours with the FE mesh and to accurately resolve the geometrical instabilities. The algorithm can simulate 3-D de-formation for a visco-elastic rheology. The viscous rheology is described by a power-law flow law. The code is used to study the 3-D fold nappe formation, the lateral propagation of folding and also the lateral propagation of cusps due to initial half graben geometry. Thereby, the small initial geometrical perturbations for folding and necking are exactly followed by the FE mesh, whereas the initial large perturbation describing a half graben is defined by a contour line inter-secting the finite elements. Further, the 3-D algorithm is applied to 3-D viscous nacking during slab detachment. The results from various simulations are compared with 2-D resulats and a 1-D analytical solution. -- On retrouve beaucoup de structures en 3 dimensions (3-D) dans les roches qui ont pour origines une déformation de la lithosphère terrestre. Ces structures sont par exemple des plis, des boudins (pinch-and-swell) ou des mullions (cuspate-lobate) et sont présentés de l'échelle centimétrique à kilométrique. Mécaniquement, ces structures peuvent être expliquées par une différence de résistance entre les différentes unités de roches et sont généralement le fruit d'une instabilité géométrique. Ces différences mécaniques entre les unités contrôlent non seulement les types de structures rencontrées, mais également le type de déformation (thick skin, thin skin) et le style tectonique (bassin d'avant pays, chaîne d'avant pays). Les processus de la déformation en deux dimensions (2-D) formant ces structures sont relativement bien compris. Cependant, lorsque l'on ajoute la troisiéme dimension, plusieurs processus ne sont pas complètement compris lors de la déformation à large échelle. L'un de ces processus est la propagation latérale des structures, par exemple la propagation de plis ou de mullions dans la direction perpendiculaire à l'axe de com-pression, ou la propagation des zones d'amincissement des boudins perpendiculairement à la direction d'extension. Nous sommes particulièrement intéressés les nappes de plis qui sont des nappes de charriage en forme de plis couché d'une amplitude plurikilométrique et étant formées par cisaillement ductile. La plupart du temps, elles exposent un sens de cisaillement constant et une augmentation non linéaire de la déformation vers la base du flanc inverse. Un exemple connu de nappes de plis est le domaine Helvétique dans les Alpes de l'ouest. Une de ces nap-pes est la Nappe de Morcles dont l'axe de pli plonge E-NE tandis que de l'autre côté de la dépression du Rawil (ou dépression du Wildstrubel), la nappe du Doldenhorn (équivalent de la nappe de Morcles) possède un axe de pli plongeant O-SO. La forme particulière de ces nappes est due à l'alternance de couches calcaires mécaniquement résistantes et de couches mécanique-ment faibles constituées de schistes et de marnes. Ces différences mécaniques dans les couches permettent d'expliquer les plissements internes à la nappe, particulièrement dans le flanc inver-se de la nappe de Morcles. Il faut également noter que le développement du flanc inverse des nappes n'est pas le même des deux côtés de la dépression de Rawil. Ainsi la nappe de Morcles possède un important flanc inverse alors que la nappe du Doldenhorn en est presque dépour-vue. A l'heure actuelle, aucune étude numérique en 3-D n'a été menée afin de comprendre la dynamique fondamentale de la formation des nappes de Morcles et du Doldenhorn ainsi que la formation de la dépression de Rawil. Ce travail propose la première analyse de l'évolution 3-D des instabilités géométriques et de la formation des nappes de plis en utilisant des simulations numériques. Notre modèle est basé sur la méthode des éléments finis (FEM) qui permet de ré-soudre avec précision les interfaces entre deux matériaux ayant des propriétés mécaniques très différentes (par exemple entre les couches calcaires et les couches marneuses). De plus nous utilisons un maillage lagrangien déformable avec une fonction de re-meshing (production d'un nouveau maillage). Grâce à cette méthode combinée il nous est possible de suivre avec précisi-on les interfaces matérielles et de résoudre avec précision les instabilités géométriques lors de la déformation de matériaux visco-élastiques décrit par une rhéologie non linéaire (n>1). Nous uti-lisons cet algorithme afin de comprendre la formation des nappes de plis, la propagation latérale du plissement ainsi que la propagation latérale des structures de type mullions causé par une va-riation latérale de la géométrie (p.ex graben). De plus l'algorithme est utilisé pour comprendre la dynamique 3-D de l'amincissement visqueux et de la rupture de la plaque descendante en zone de subduction. Les résultats obtenus sont comparés à des modèles 2-D et à la solution analytique 1-D. -- Viele drei dimensionale (3-D) Strukturen, die in Gesteinen vorkommen und durch die Verfor-mung der Erdkruste und Litosphäre entstanden sind werden von den unterschiedlichen mechani-schen Eigenschaften der Gesteinseinheiten kontrolliert und sind häufig das Resulat von geome-trischen Istabilitäten. Zu diesen strukturen zählen zum Beispiel Falten, Pich-and-swell Struktu-ren oder sogenannte Cusbate-Lobate Strukturen (auch Mullions). Diese Strukturen kommen in verschiedenen Grössenordungen vor und können Masse von einigen Zentimeter bis zu einigen Kilometer aufweisen. Die mit der Entstehung dieser Strukturen verbundenen Prozesse kontrol-lieren die Entstehung von Gerbirgen und Sediment-Becken sowie die Verformung des Kontaktes zwischen Grundgebirge und Stedimenten. Die zwei dimensionalen (2-D) Verformungs-Prozesse die zu den genannten Strukturen führen sind bereits sehr gut untersucht. Einige Prozesse wäh-rend starker 3-D Verformung sind hingegen noch unvollständig verstanden. Einer dieser 3-D Prozesse ist die seitliche Fortpflanzung der beschriebenen Strukturen, so wie die seitliche Fort-pflanzung von Falten und Cusbate-Lobate Strukturen senkrecht zur Verkürzungsrichtung und die seitliche Fortpflanzung von Pinch-and-Swell Strukturen othogonal zur Streckungsrichtung. Insbesondere interessieren wir uns für Faltendecken, liegende Falten mit Amplituden von mehr als 10 km. Faltendecken entstehen vermutlich durch duktile Verscherung. Sie zeigen oft einen konstanten Scherungssinn und eine nicht-lineare zunahme der Scherverformung am überkipp-ten Schenkel. Die Faltenachsen der Morcles Decke in der Westschweiz fallen Richtung ONO während die Faltenachsen der östicher gelegenen Doldenhorn Decke gegen WSW einfallen. Diese entgegengesetzten Einfallrichtungen charakterisieren die Rawil Depression (Wildstrubel Depression). Die Morcles Decke ist überwiegend das Resultat von Verkürzung und Scherung parallel zu den Sedimentlagen. Während der Verkürzung verhielt sich der massive Kalkstein kompetenter als der Umliegende Mergel und Schiefer, was zur Verfaltetung Morcles Decke führ-te, vorallem in gegen Norden eifallenden überkippten Schenkel. Die Doldenhorn Decke weist dagegen einen viel kleineren überkippten Schenkel und eine stärkere Lokalisierung der Verfor-mung auf. Bis heute gibt es keine 3-D numerischen Studien, die die fundamentale Dynamik der Entstehung von grossen stark verformten 3-D Strukturen wie den Morcles und Doldenhorn Decken sowie der damit verbudenen Rawil Depression untersuchen. Wir betrachten die 3-D Ent-wicklung von geometrischen Instabilitäten sowie die Entstehung fon Faltendecken mit Hilfe von numerischen Simulationen basiert auf der Finite Elemente Methode (FEM). Die Simulation von geometrischen Instabilitäten, die aufgrund von Änderungen der Materialeigenschaften zwischen verschiedenen Gesteinseinheiten entstehen, erfortert einen numerischen Algorithmus, der in der Lage ist die Materialgrenzen mit starkem Kontrast der Materialeigenschaften (zum Beispiel zwi-schen Kalksteineinheiten und Mergel) für starke Verfomung genau aufzulösen. Um dem gerecht zu werden kombiniert unser FE Algorithmus eine numerische Contour-Linien-Technik und ein deformierbares Lagranges Netz mit Re-meshing. Mit dieser kombinierten Methode ist es mög-lich den anfänglichen Materialgrenzen mit dem FE Netz genau zu folgen und die geometrischen Instabilitäten genügend aufzulösen. Der Algorithmus ist in der Lage visko-elastische 3-D Ver-formung zu rechnen, wobei die viskose Rheologie mit Hilfe eines power-law Fliessgesetzes beschrieben wird. Mit dem numerischen Algorithmus untersuchen wir die Entstehung von 3-D Faltendecken, die seitliche Fortpflanzung der Faltung sowie der Cusbate-Lobate Strukturen die sich durch die Verkürzung eines mit Sediment gefüllten Halbgraben bilden. Dabei werden die anfänglichen geometrischen Instabilitäten der Faltung exakt mit dem FE Netz aufgelöst wäh-rend die Materialgranzen des Halbgrabens die Finiten Elemente durchschneidet. Desweiteren wird der 3-D Algorithmus auf die Einschnürung während der 3-D viskosen Plattenablösung und Subduktion angewandt. Die 3-D Resultate werden mit 2-D Ergebnissen und einer 1-D analyti-schen Lösung verglichen.
Resumo:
Cette étude porte sur les 1829 graffiti sur céramique d'époque gallo-romaine retrouvés sur le site d'Avenches. Ils offrent de précieux repères pour estimer les effets de la romanisation et les persistances des traditions indigènes. Soumis à un examen attentif combinant les approches linguistique, iconographique, céramologique, spatiale et chronologique, ils nous renseignent sur certains domaines, comme les pratiques religieuses, les modes de consommation, les usages commerciaux et le système de mesure employé, mais également sur la composition de la société, via les tendances onomastiques. Les dessins et les graffiti indéterminés, qui sont difficiles ou impossibles à comprendre, permettent néanmoins de susciter la réflexion sur plusieurs questions, comme la valeur des symboles et de certains dessins, le sens des graffiti équivoques. Les informations épigraphiques, la restitution des inscriptions et l'étude de l'alphabet fournissent également des renseignements importants sur l'écriture, la langue, l'éducation et le degré d'alphabétisation de la population. Se rapportant à une autre catégorie de la population d'Avenches, celle des artisans, les quelques graffiti ante cocturam livrent quant à eux des informations concernant l'organisation sociale et l'histoire des artisans. Combiner les résultats obtenus dans différents domaines est primordial pour comprendre le phénomène des graffiti à Avenches durant l'époque romaine. Deux questions reviennent systématiquement dans chacun de nos chapitres : l'identité des auteurs des graffiti et la signification du message gravé. Cette dernière est parfois limpide ; plus souvent elle donne lieu à diverses interprétations. Mais qui sont les scripteurs ? Certaines couches de la société sont-elles à exclure ou à privilégier ? On sait que l'élite des helvètes avait obtenu très tôt la citoyenneté romaine, mais les utilisateurs des récipients appartenaient-ils à cette élite ? En principe, tout un chacun avait la possibilité d'inscrire son nom sur un récipient, qu'il fût de basse extraction ou qu'il se trouvât au somment de la hiérarchie sociale de la cité. Ce sont les circonstances qui conduisent un individu à graver son nom sur un récipient : pour éviter de le perdre, pour qu'on ne l'utilise pas, ou pour le reconnaître à l'occasion d'une célébration, dans un cadre communautaire. Vu la prédominance des noms latins indigènes et gaulois, les nombreux noms grecs et la rareté des noms italiens, faut-il déduire que les scripteurs appartenaient aux couches basses et moyennes de la population ? Ce serait faire fi des mises en garde et des précautions appliquées tout au long de l'étude. D'un point de vue terminologique, il apparaît que la formule « marque de propriété » est une appellation générique se rapportant à un geste bien précis, mais réalisé dans des circonstances très variables. Les auteurs des graffiti ne composent en tout cas pas un groupe homogène. Des femmes, des hommes et peut-être des enfants ont laissé leurs traces sur les récipients. Leur statut, leur condition sociale et leur origine ne sont pas aisés à identifier. L'origine des noms révèle des tendances sur la mode onomastique, tandis que la forme qu'ils revêtent en relation avec le statut de la ville nous conduit à d'intéressantes constatations diachroniques sur l'onomastique de la population d'Avenches. La présence des indications chiffrées et des abréviations codifiées est à mettre en relation avec les besoins domestiques, de la cuisine et de l'approvisionnement, avec le monde du commerce et de l'artisanat, pour la vente ou pour le contrôle de la production. La variété des écritures est probablement liée au support et au type de message inscrit, mais elle témoigne également d'une production épigraphique provenant d'un spectre relativement large de la population, qui se tourne vers cette pratique de l'écrit pour répondre à des besoins quotidiens.
Resumo:
The term "sound object" describes an auditory experience that is associated with an acoustic event produced by a sound source. In natural settings, a sound produced by a living being or an object provides information about the identity and the location of the sound source. Sound's identity is orocessed alono the ventral "What" pathway which consists of regions within the superior and middle temporal cortices as well as the inferior frontal gyrus. This work concerns the creation of individual auditory object representations in narrow semantic categories and their plasticity using electrical imaging. Discrimination of sounds from broad category has been shown to occur along a temporal hierarchy and in different brain regions along the ventral "What" pathway. However, sounds belonging to the same semantic category, such as faces or voices, were shown to be discriminated in specific brain areas and are thought to represent a special class of stimuli. I have investigated how cortical representations of a narrow category, here birdsongs, is modulated by training novices to recognized songs of individual bird species. Dynamic analysis of distributed source estimations revealed differential sound object representations within the auditory ventral "What" pathway as a function of the level of expertise newly acquired. Correct recognition of trained items induces a sharpening within a left-lateralized semantic network starting around 200ms, whereas untrained items' processing occurs later in lower-level and memory-related regions. With another category of sounds belonging to the same category, here heartbeats, I investigated the cortical representations of correct and incorrect recognition of sounds. Source estimations revealed differential representations partially overlapping with regions involved in the semantic network that is activated when participants became experts in the task. Incorrect recognition also induces a higher activation when compared to correct recognition in regions processing lower-level features. The discrimination of heartbeat sounds is a difficult task and requires a continuous listening. I investigated whether the repetition effects are modulated by participants' behavioral performance. Dynamic source estimations revealed repetition suppression in areas located outside of the semantic network. Therefore, individual environmental sounds become meaningful with training. Their representations mainly involve a left-lateralized network of brain regions that are tuned with expertise, as well as other brain areas, not related to semantic processing, and occurring in early stages of semantic processing. -- Le terme objet sonore" décrit une expérience auditive associée à un événement acoustique produit par une source sonore. Dans l'environnement, un son produit par un être vivant ou un objet fournit des informations concernant l'identité et la localisation de la source sonore. Les informations concernant l'identité d'un son sont traitée le long de la voie ventrale di "Quoi". Cette voie est composée de regions situées dans le cortex temporal et frontal. L'objet de ce travail est d'étudier quels sont les neuro-mecanismes impliqués dans la représentation de nouveaux objets sonores appartenant à une meme catégorie sémantique ainsi que les phénomènes de plasticité à l'aide de l'imagerie électrique. Il a été montré que la discrimination de sons appartenant à différentes catégories sémantiques survient dans différentes aires situées le long la voie «Quoi» et suit une hiérarchie temporelle II a également été montré que la discrimination de sons appartenant à la même catégorie sémantique tels que les visages ou les voix, survient dans des aires spécifiques et représenteraient des stimuli particuliers. J'ai étudié comment les représentations corticales de sons appartenant à une même catégorie sémantique, dans ce cas des chants d'oiseaux, sont modifiées suite à un entraînement Pour ce faire, des sujets novices ont été entraînés à reconnaître des chants d'oiseaux spécifiques L'analyse des estimations des sources neuronales au cours du temps a montré que les representations des objets sonores activent de manière différente des régions situées le long de la vo,e ventrale en fonction du niveau d'expertise acquis grâce à l'entraînement. La reconnaissance des chants pour lesquels les sujets ont été entraînés implique un réseau sémantique principalement situé dans l'hémisphère gauche activé autour de 200ms. Au contraire, la reconnaissance des chants pour lesquels les sujets n'ont pas été entraînés survient plus tardivement dans des régions de plus bas niveau. J'ai ensuite étudié les mécanismes impliqués dans la reconnaissance et non reconnaissance de sons appartenant à une autre catégorie, .es battements de coeur. L'analyse des sources neuronales a montre que certaines régions du réseau sémantique lié à l'expertise acquise sont recrutées de maniere différente en fonction de la reconnaissance ou non reconnaissance du son La non reconnaissance des sons recrute des régions de plus bas niveau. La discrimination des bruits cardiaques est une tâche difficile et nécessite une écoute continue du son. J'ai étudié l'influence des réponses comportementales sur les effets de répétitions. L'analyse des sources neuronales a montré que la reconnaissance ou non reconnaissance des sons induisent des effets de repétition différents dans des régions situées en dehors des aires du réseau sémantique. Ainsi, les sons acquièrent un sens grâce à l'entraînement. Leur représentation corticale implique principalement un réseau d'aires cérébrales situé dans l'hémisphère gauche, dont l'activité est optimisée avec l'acquisition d'un certain niveau d'expertise, ainsi que d'autres régions qui ne sont pas liée au traitement de l'information sémantique. L'activité de ce réseau sémantique survient plus rapidemement que la prédiction par le modèle de la hiérarchie temporelle.
Resumo:
De nombreuses études ont été consacrées en Suisse à la promotion de la nouvelle gestion publique (NGP) au niveau des cantons, puis à son évaluation. Or, les chercheurs se sont peu intéressés jusqu'ici aux effets de son introduction sur les structures administratives et les effectifs de la fonction publique. Ils n'ont pas non plus expliqué suffisamment les facteurs ayant favorisé ou freiné la modernisation de l'Etat au-delà de la NGP. Les réformes de l'Etat menées au sein des administrations cantonales dans le cadre de la revitalisation du fédéralisme ont des causes multiples. Cette étude exploratoire tente de décrire les transformations au niveau des structures et de l'organisation de l'Etat depuis le début des années 1990 en analysant le niveau et l'impact des principes NGP ou d'autres facteurs ayant pu jouer un rôle dans la modernisation des administrations: force des partis, degré de professionnalisation des législatifs, taille de la population et des administrations, RPT et revitalisation de la collaboration intercantonale. Il ressort de l'étude qu'un groupe de cantons essentiellement alémaniques, plutôt de taille moyenne à grande (AG, BE, LU, SO, TG, VS, ZH) ont réussi à davantage réformer les administrations selon les principes de la NGP alors que d'autres ont choisi des voies différentes ou médianes (tels que BS, GE, JU, SG, TI, VD). Ces réformes se sont traduites pratiquement partout par un resserrement des structures décisionnelles (modèle ministériel 5/7), par une variation du nombre de services (hausse dans une première phase puis réduction) mais aussi du personnel (plutôt hausse à l'exception de BS et ZH) allant dans le sens d'une convergence des modèles institutionnels déterminée autant par des facteurs externes qu'internes aux cantons. Notre étude montre que la professionnalisation des parlements, davantage développée dans les cantons où le système représentatif est étendu (cantons latins, Bâle-Ville), retarde ou empêche l'essor des principes NGP alors que les cantons alémaniques à démocratie directe plus prononcée favorisent l'autonomisation des processus de réformes administratives avec une capacité de blocage moins grande des parlements.
Resumo:
Alors que les politiques environnementales se sont développées de manière exponentielle ces dernières décennies, les problèmes demeurent. C'est que l'adoption d'une règle ne constitue jamais une fin en soi. Encore faut-il, pour qu'elle produise ses effets, que les acteurs se l'approprient, la traduisent comme une prescription au niveau de l'action. Or ce processus d'appropriation, loin d'être automatique, est émaillé de rapports de force et d'arrangements, de stratégies complémentaires ou concurrentes. Tous les acteurs ne poursuivent dans ce cadre pas des objectifs de concrétisation, certains cherchant au contraire à contourner ou à instrumentaliser les règles, à atténuer leurs effets ou à favoriser des solutions sur mesure. Il y a, clairement, une distance de la règle à l'action. Le présent ouvrage met en lumière la dimension politique de ces processus à travers le développement du concept de stratégies d'activation du droit. Relevant autant de démarches de concrétisation que de logiques alternatives (passivité, détournement, contournement, innovation), elles sont placées au coeur de la réflexion. Au final, le propos souligne l'intérêt d'une approche moins managériale de la mise en oeuvre. Les stratégies d'activation contribuent à mettre en évidence un répertoire très fin de jeux d'acteurs, à systématiser une analyse actorielle souvent réduite au minimum en raison de la difficulté à en rendre compte. L'ouvrage apporte en ce sens une véritable plus-value à l'analyse des politiques publiques.
Resumo:
Le cancer testiculaire, bien que peu fréquent, revêt une importance particulière en oncologie ; il représente actuellement un modèle pour optimiser un suivi radiologique tout en essayant de diminuer l'apparition de tumeurs radio-induites.En effet, cette pathologie présente un taux très élevé de survie nécessitant, au vu du jeune âge des patients, des bilans radiologiques à long terme, auxquels pourront être liés des effets secondaires, en particulier les tumeurs secondaires.Afin de diminuer cela, les recommandations de prise en charge ont évolué et les protocoles de radiologie s'améliorent afin d'exposer à moins de rayonnements ionisants pour un résultat identique.Il est donc devenu primordial de maintenir un suivi optimal tout en essayant d'en minimiser la toxicité. Despite being rare cancers, testicular seminoma and non-seminoma play an important role in oncology: they represent a model on how to optimize radiological follow-up, aiming at a lowest possible radiation exposure and secondary cancer risk. Males diagnosed with testicular cancer undergo frequently prolonged follow-up with CT-scans with potential toxic side effects, in particular secondary cancers. To reduce the risks linked to ionizing radiation, precise follow-up protocols have been developed. The number of recommended CT-scanners has been significantly reduced over the last 10 years. The CT scanners have evolved technically and new acquisition protocols have the potential to reduce the radiation exposure further.
Resumo:
Dans un monde toujours plus globalisé depuis le milieu du XXcmc siècle, le couple linguistiquement mixte est une constellation conjugale de plus en plus fréquente en Suisse comme ailleurs. Le choix du lieu de la vie commune implique souvent la migration de l'un des partenaires vers le pays de l'autre, et donc parfois vers une nouvelle langue - en l'occurrence ici le français - qu'il s'agit de s'approprier. Cette thèse se penche donc sur les liens entre ce contexte a priori positif que représente le couple, et l'appropriation langagière du/de la partenaire alloglotte. De par sa base affective, mais surtout de par le fait que la personne migrante peut compter sur quelqu'un qui est prêt et disposé à l'aider, notamment parce que la migration a été décidée dans le cadre d'un projet commun, le couple favorise la socialisation et donc le contact de la personne nouvellement arrivée avec différentes (variétés de) langues qu'elle s'approprie progressivement : contrairement à beaucoup de migrant-e-s venu-e-s seul-e-s dans un nouveau pays, le/la partenaire alloglotte de ces couples se voit souvent pourvu-e d'une famille (belle-famille et enfants), d'un réseau social (ami-e-s du partenaire francophone), et d'une médiation culturelle et linguistique utile pour accéder notamment au marché de l'emploi, mais également pour comprendre les différents enjeux sociaux dans lesquels elle se voit plongée. Cette médiation affective, linguistique et socio-culturelle proposée par le couple lui permet d'identifier plus aisément des solutions utiles pour dépasser certaines barrières sociales, économiques, administratives, linguistiques et/ou culturelles. Pour autant, le/la partenaire alloglotte du couple linguistiquement mixte est avant tout un acteur social à part entière, qui vit aussi hors du couple et s'aménage - sans doute plus vite, plus facilement et plus naturellement que d'autres migrant-e-s - ses propres modalités de socialisation, en fonction de son vécu et de ses projections pour le futur. Dans une perspective fondamentalement socioconstructiviste du développement humain, l'appropriation langagière est donc ici considérée comme la construction par la personne d'une capacité à agir dans l'espace social et dans la langue. Si l'appropriation a lieu dans et par l'interaction, il s'agit d'investiguer à la fois certains des enjeux de pouvoir dans lesquels s'inscrit cette interaction, et le sens que la personne donne à ces enjeux en fonction de sa subjectivité propre. Le cadre épistémologique de ce travail convoque ainsi des outils issus de la sociologie bourdieusienne et foucaldienne, de la sociolinguistique critique, de la psychologie sociale et de la psycho-sociolinguistique afin d'explorer certaines des limites sociales et psycho-affectives qui influencent les modalités de l'appropriation langagière de la personne alloglotte. La méthode adoptée pour explorer ces deux types de limites s'inscrit dans la tradition de la recherche sur les récits de vie, tout en s'en distanciant sur deux points. D'une part, si le récit de vie considère la personne qui se raconte comme narratrice de sa propre vie, l'autobiographie langagière réflexive met l'accent sur une démarche potentiellement formatrice lui permettant de « penser » sa trajectoire de vie en lien avec son appropriation langagière. D'autre part, les analyses menées sur ces textes écrits et oraux sont tout à la fois thématiques et discursives, puisque la manière dont les événements sont racontés permet de retracer les enjeux souvent ambivalents, parfois contradictoires, qui influencent le sens que la personne donne à son parcours avec le français et la construction de son sentiment de légitimité ou d'illégitimité à vivre en Suisse et en français. En dernière instance, cette thèse défétichise le couple, considéré comme la rencontre de deux subjectivités autour d'un projet de « vivre ensemble », plus que comme un lien romantique et amoureux. Elle défétichise la langue, comprise comme un répertoire langagier forcément plurilingue et hétéroglossique. Elle défétichise l'appropriation langagière, qui apparaît comme un effet collatéral et contextuel de la vie en couple et en société. Elle défétichise enfin le récit de soi, en le poussant vers la réflexion d'un soi ancré dans le social. Si les partenaires des huit couples interrogés ont une voix forte dans l'entier de ce texte, c'est qu'ils et elles existent comme personnes, indépendamment du couple, de la langue, de l'appropriation langagière et de la démarche autobiographique réflexive qui les font se rejoindre dans le contexte particulier de cette recherche mais qui ne constituent que certains de leurs positionnements identitaires et sociaux.
Resumo:
Ma recherche porte sur la crise et les diverses transformations subies par la théocratie en tant que modèle politique en Europe dans la première moitié du XVIIIe siècle. Mon attention se concentre sur la remise en question de la valeur normative, à savoir sacrée, que ce modèle avait acquis au cours du XVIe et du XVIIe siècle, et sur sa transformation en un modèle universel et «négatif» au cours de la première partie du XVIIIe siècle. L'analyse du modèle théocratique n'a pas fait, jusqu'à présent, l'objet de nombreuses études de la part des historiens de la pensée politique moderne. Il est resté au centre de la réflexion d'autres domaines d'études. Seulement, depuis les années 1990, certaines études historiographiques ont montré l'existence, au cours des XVIe et XVIIe siècles, d'un grand intérêt autour de la normatività du modèle théocratique. L'analyse portait sur une série de traités relatifs à l'utilisation politique de la théocratie juive, c'est-à-dire le gouvernement de l'ancien Israël ou respublica Hebraeorum, telle qu'elle était décrite dans le texte sacré. La limite de ces études est cependant d'avoir analysé seulement « l'âge d'or » de cette littérature, à savoir les XVIe et XVIIe siècles. Ils ont identifié dans le Tractatus Theo logico -Poäücus de Spinoza le déclin de l'intérêt européen pour ce modèle politique. Ma recherche vise à mettre en évidence l'évolution de la façon de considérer la théocratie en tant que. modèle politique en Europe au XVIIIe siècle, dans le but de démontrer que le Tractatus Theologico- Poäticus n'a pas signé son déclin définitif en Europe en soulignant comment le débat politique de cette époque a été caractérisé par un fort intérêt politique pour la théocratie. En particulier mon analyse porte sur trois moments différents. La première partie de mon étude concerne la remise en question de la valeur positive et normative du modèle, théocratique juif à travers son historicisation. A cet effet, je me concentre sur trois figures emblématiques, à savoir Giambattista Vico, John Toland et Jacques Basnage en démontrant comment ce trois auteurs, chacun de leur côté, ont contribué au renversement de l'image classique de la respublica Hebraeorum. Dans un deuxième temps mon étude analyse la phase de radicalisation de ces changements au milieu du XVIIIe siècle et, en particulier, dans les ouvrages de Nicolas Antoine Boulanger, les Recherches sur l'origine du despotisme oriental (1761) et l'Antiquité dévoilée par ses usags (1765). Boulanger fut le premier à fournir une explication de la naissance des différentes formes de gouvernements politiques et des différentes religions en se référant à de grandes catastrophes géologiques, notamment le Déluge. La théocratie s'explique ainsi par un millénarisme aigu suite à l'expérience catastrophique de l'inondation. Le modèle décrite par Boulanger se distingue clairement de celui de la littérature, précédente. La théocratie subit un déplacement sémantique de modèle politique associé à l'histoire juive avec une connotation «positive» à un modèle universel à connotation totalement la «négative». Dans cette transition, qui s'est produite de manière progressive entre le XVIIe et le XVIIIe siècle, le modèle biblique perd sa principale caractéristique, à savoir sa sacralité. La troisième et dernière partie de cette étude est une brève description de l'héritage du modèle théocratique dans XEncyclopédie ou Dictionnaire raisonné des sciences, des arts et des métiers. En particulier, l'analyse se concentre sur l'article «Théocratie» et l'article «OEconomie politique». Ma recherche vise à montrer les éléments en commun de ces deux articles avec les ouvrages de Boulanger. Ces deux contributions sont présentées dans mon travail comme un moyen de transmission de la pensée de Boulanger dans l'Encyclopedie.
Resumo:
«Quel est l'âge de cette trace digitale?» Cette question est relativement souvent soulevée au tribunal ou lors d'investigations, lorsque la personne suspectée admet avoir laissé ses empreintes digitales sur une scène de crime mais prétend l'avoir fait à un autre moment que celui du crime et pour une raison innocente. Toutefois, aucune réponse ne peut actuellement être donnée à cette question, puisqu'aucune méthodologie n'est pour l'heure validée et acceptée par l'ensemble de la communauté forensique. Néanmoins, l'inventaire de cas américains conduit dans cette recherche a montré que les experts fournissent tout de même des témoignages au tribunal concernant l'âge de traces digitales, même si ceux-‐ci sont majoritairement basés sur des paramètres subjectifs et mal documentés. Il a été relativement aisé d'accéder à des cas américains détaillés, ce qui explique le choix de l'exemple. Toutefois, la problématique de la datation des traces digitales est rencontrée dans le monde entier, et le manque de consensus actuel dans les réponses données souligne la nécessité d'effectuer des études sur le sujet. Le but de la présente recherche est donc d'évaluer la possibilité de développer une méthode de datation objective des traces digitales. Comme les questions entourant la mise au point d'une telle procédure ne sont pas nouvelles, différentes tentatives ont déjà été décrites dans la littérature. Cette recherche les a étudiées de manière critique, et souligne que la plupart des méthodologies reportées souffrent de limitations prévenant leur utilisation pratique. Néanmoins, certaines approches basées sur l'évolution dans le temps de composés intrinsèques aux résidus papillaires se sont montrées prometteuses. Ainsi, un recensement détaillé de la littérature a été conduit afin d'identifier les composés présents dans les traces digitales et les techniques analytiques capables de les détecter. Le choix a été fait de se concentrer sur les composés sébacés détectés par chromatographie gazeuse couplée à la spectrométrie de masse (GC/MS) ou par spectroscopie infrarouge à transformée de Fourier. Des analyses GC/MS ont été menées afin de caractériser la variabilité initiale de lipides cibles au sein des traces digitales d'un même donneur (intra-‐variabilité) et entre les traces digitales de donneurs différents (inter-‐variabilité). Ainsi, plusieurs molécules ont été identifiées et quantifiées pour la première fois dans les résidus papillaires. De plus, il a été déterminé que l'intra-‐variabilité des résidus était significativement plus basse que l'inter-‐variabilité, mais que ces deux types de variabilité pouvaient être réduits en utilisant différents pré-‐ traitements statistiques s'inspirant du domaine du profilage de produits stupéfiants. Il a également été possible de proposer un modèle objectif de classification des donneurs permettant de les regrouper dans deux classes principales en se basant sur la composition initiale de leurs traces digitales. Ces classes correspondent à ce qui est actuellement appelé de manière relativement subjective des « bons » ou « mauvais » donneurs. Le potentiel d'un tel modèle est élevé dans le domaine de la recherche en traces digitales, puisqu'il permet de sélectionner des donneurs représentatifs selon les composés d'intérêt. En utilisant la GC/MS et la FTIR, une étude détaillée a été conduite sur les effets de différents facteurs d'influence sur la composition initiale et le vieillissement de molécules lipidiques au sein des traces digitales. Il a ainsi été déterminé que des modèles univariés et multivariés pouvaient être construits pour décrire le vieillissement des composés cibles (transformés en paramètres de vieillissement par pré-‐traitement), mais que certains facteurs d'influence affectaient ces modèles plus sérieusement que d'autres. En effet, le donneur, le substrat et l'application de techniques de révélation semblent empêcher la construction de modèles reproductibles. Les autres facteurs testés (moment de déposition, pression, température et illumination) influencent également les résidus et leur vieillissement, mais des modèles combinant différentes valeurs de ces facteurs ont tout de même prouvé leur robustesse dans des situations bien définies. De plus, des traces digitales-‐tests ont été analysées par GC/MS afin d'être datées en utilisant certains des modèles construits. Il s'est avéré que des estimations correctes étaient obtenues pour plus de 60 % des traces-‐tests datées, et jusqu'à 100% lorsque les conditions de stockage étaient connues. Ces résultats sont intéressants mais il est impératif de conduire des recherches supplémentaires afin d'évaluer les possibilités d'application de ces modèles dans des cas réels. Dans une perspective plus fondamentale, une étude pilote a également été effectuée sur l'utilisation de la spectroscopie infrarouge combinée à l'imagerie chimique (FTIR-‐CI) afin d'obtenir des informations quant à la composition et au vieillissement des traces digitales. Plus précisément, la capacité de cette technique à mettre en évidence le vieillissement et l'effet de certains facteurs d'influence sur de larges zones de traces digitales a été investiguée. Cette information a ensuite été comparée avec celle obtenue par les spectres FTIR simples. Il en a ainsi résulté que la FTIR-‐CI était un outil puissant, mais que son utilisation dans l'étude des résidus papillaires à des buts forensiques avait des limites. En effet, dans cette recherche, cette technique n'a pas permis d'obtenir des informations supplémentaires par rapport aux spectres FTIR traditionnels et a également montré des désavantages majeurs, à savoir de longs temps d'analyse et de traitement, particulièrement lorsque de larges zones de traces digitales doivent être couvertes. Finalement, les résultats obtenus dans ce travail ont permis la proposition et discussion d'une approche pragmatique afin d'aborder les questions de datation des traces digitales. Cette approche permet ainsi d'identifier quel type d'information le scientifique serait capable d'apporter aux enquêteurs et/ou au tribunal à l'heure actuelle. De plus, le canevas proposé décrit également les différentes étapes itératives de développement qui devraient être suivies par la recherche afin de parvenir à la validation d'une méthodologie de datation des traces digitales objective, dont les capacités et limites sont connues et documentées. -- "How old is this fingermark?" This question is relatively often raised in trials when suspects admit that they have left their fingermarks on a crime scene but allege that the contact occurred at a time different to that of the crime and for legitimate reasons. However, no answer can be given to this question so far, because no fingermark dating methodology has been validated and accepted by the whole forensic community. Nevertheless, the review of past American cases highlighted that experts actually gave/give testimonies in courts about the age of fingermarks, even if mostly based on subjective and badly documented parameters. It was relatively easy to access fully described American cases, thus explaining the origin of the given examples. However, fingermark dating issues are encountered worldwide, and the lack of consensus among the given answers highlights the necessity to conduct research on the subject. The present work thus aims at studying the possibility to develop an objective fingermark dating method. As the questions surrounding the development of dating procedures are not new, different attempts were already described in the literature. This research proposes a critical review of these attempts and highlights that most of the reported methodologies still suffer from limitations preventing their use in actual practice. Nevertheless, some approaches based on the evolution of intrinsic compounds detected in fingermark residue over time appear to be promising. Thus, an exhaustive review of the literature was conducted in order to identify the compounds available in the fingermark residue and the analytical techniques capable of analysing them. It was chosen to concentrate on sebaceous compounds analysed using gas chromatography coupled with mass spectrometry (GC/MS) or Fourier transform infrared spectroscopy (FTIR). GC/MS analyses were conducted in order to characterize the initial variability of target lipids among fresh fingermarks of the same donor (intra-‐variability) and between fingermarks of different donors (inter-‐variability). As a result, many molecules were identified and quantified for the first time in fingermark residue. Furthermore, it was determined that the intra-‐variability of the fingermark residue was significantly lower than the inter-‐variability, but that it was possible to reduce both kind of variability using different statistical pre-‐ treatments inspired from the drug profiling area. It was also possible to propose an objective donor classification model allowing the grouping of donors in two main classes based on their initial lipid composition. These classes correspond to what is relatively subjectively called "good" or "bad" donors. The potential of such a model is high for the fingermark research field, as it allows the selection of representative donors based on compounds of interest. Using GC/MS and FTIR, an in-‐depth study of the effects of different influence factors on the initial composition and aging of target lipid molecules found in fingermark residue was conducted. It was determined that univariate and multivariate models could be build to describe the aging of target compounds (transformed in aging parameters through pre-‐ processing techniques), but that some influence factors were affecting these models more than others. In fact, the donor, the substrate and the application of enhancement techniques seemed to hinder the construction of reproducible models. The other tested factors (deposition moment, pressure, temperature and illumination) also affected the residue and their aging, but models combining different values of these factors still proved to be robust. Furthermore, test-‐fingermarks were analysed with GC/MS in order to be dated using some of the generated models. It turned out that correct estimations were obtained for 60% of the dated test-‐fingermarks and until 100% when the storage conditions were known. These results are interesting but further research should be conducted to evaluate if these models could be used in uncontrolled casework conditions. In a more fundamental perspective, a pilot study was also conducted on the use of infrared spectroscopy combined with chemical imaging in order to gain information about the fingermark composition and aging. More precisely, its ability to highlight influence factors and aging effects over large areas of fingermarks was investigated. This information was then compared with that given by individual FTIR spectra. It was concluded that while FTIR-‐ CI is a powerful tool, its use to study natural fingermark residue for forensic purposes has to be carefully considered. In fact, in this study, this technique does not yield more information on residue distribution than traditional FTIR spectra and also suffers from major drawbacks, such as long analysis and processing time, particularly when large fingermark areas need to be covered. Finally, the results obtained in this research allowed the proposition and discussion of a formal and pragmatic framework to approach the fingermark dating questions. It allows identifying which type of information the scientist would be able to bring so far to investigators and/or Justice. Furthermore, this proposed framework also describes the different iterative development steps that the research should follow in order to achieve the validation of an objective fingermark dating methodology, whose capacities and limits are well known and properly documented.