932 resultados para Winding faults
Resumo:
Tämä työ on tehty Lappeenrannan teknilliselle yliopistolle, joka on suunnitellut ja toteuttanut hybridibussin. Hybridibussin ajomoottorissa käytetään kaksoiskäämitystä, joka mahdollistaa bussin ajamisen vikatilanteessa, jossa toinen käämityksistä on epäkunnossa. Työn tavoitteena on selvittää, millainen kaksoiskäämitys toimii parhaiten tämän hybridibussin kestomagneettiajomoottorissa. Työssä tutustutaan ajomoottoreihin ja niiltä vaadittaviin ominaisuuksiin sekä vikasietoisiin sähkömoottoreihin. Tutkimuksessa löydettyihin vikasietoisiin ajomoottoreihin perustuen päädyttiin neljään kaksoiskäämitysvaihtoehtoon. Näitä kaksoiskäämityksiä tutkittiin FE-analyysiä hyödyntäen. Kaksoiskäämitysten toimintaa simuloitiin nimellis- ja vikatilanteessa. Simuloinnin tuloksista selvisi, että kaksoiskäämitys, jossa jokaisessa urassa oli puolet yhtä käämitystä ja puolet toista (kaksoiskäämitys 1), ei toiminut kunnolla nimellistilanteessa eikä vikatilanteessa. Suurin ongelma oli vikatilanteessa aiheutuva suuri oikosulkuvirta. Kaksoiskäämitys, jossa kaksi napaa oli samaa käämitystä (kaksoiskäämitys 2), toimi moitteettomasti nimellistilanteessa. Vikatilanteen toiminnassa kuitenkin havaittiin epäjaksollisuutta magneettivuontiheydessä, mikä on haitallista moottorin käynnille ja vaaraksi roottorille. Kaksoiskäämityksiä, joista ensimmäisessä oli neljäsosa konetta samaa käämitystä (kaksoiskäämitys 3) ja toisessa puolet koneesta samaa käämitystä (kaksoiskäämitys 4), tutkittiin vikatilanteessa vain magneettivuontiheyden osalta. Puolet ja puolet käämityn koneen osalta magneettivuontiheys osottautui epäjaksolliseksi kuten oli odotettu. Neljäsosiksi käämityn koneen magneettivuontiheys oli säännöllisen jaksollinen. Nimellispisteessä kaksoiskäämityksillä 3 ja 4 havaittiin suuri vääntöväre verrattuna kaksoiskäämityksiin 1 ja 2. Johtopäätöksenä kaksoiskäämitys 3 vaikuttaa lupaavalta, mikäli suuri nimellispisteen vääntöväre saadaan hallintaan käyttämällä uravinoutta staattorissa.
Resumo:
The increasing emphasis on energy efficiency is starting to yield results in the reduction in greenhouse gas emissions; however, the effort is still far from sufficient. Therefore, new technical solutions that will enhance the efficiency of power generation systems are required to maintain the sustainable growth rate, without spoiling the environment. A reduction in greenhouse gas emissions is only possible with new low-carbon technologies, which enable high efficiencies. The role of the rotating electrical machine development is significant in the reduction of global emissions. A high proportion of the produced and consumed electrical energy is related to electrical machines. One of the technical solutions that enables high system efficiency on both the energy production and consumption sides is high-speed electrical machines. This type of electrical machines has a high system overall efficiency, a small footprint, and a high power density compared with conventional machines. Therefore, high-speed electrical machines are favoured by the manufacturers producing, for example, microturbines, compressors, gas compression applications, and air blowers. High-speed machine technology is challenging from the design point of view, and a lot of research is in progress both in academia and industry regarding the solution development. The solid technical basis is of importance in order to make an impact in the industry considering the climate change. This work describes the multidisciplinary design principles and material development in high-speed electrical machines. First, high-speed permanent magnet synchronous machines with six slots, two poles, and tooth-coil windings are discussed in this doctoral dissertation. These machines have unique features, which help in solving rotordynamic problems and reducing the manufacturing costs. Second, the materials for the high-speed machines are discussed in this work. The materials are among the key limiting factors in electrical machines, and to overcome this limit, an in-depth analysis of the material properties and behavior is required. Moreover, high-speed machines are sometimes operating in a harsh environment because they need to be as close as possible to the rotating tool and fully exploit their advantages. This sets extra requirements for the materials applied.
Resumo:
The Sand Creek Prospect is located within the eastern exposed margin of the Coast Plutonic Complex. The occurrence is a plug and dyke porphyry molybdenum deposit. The rock types, listed in decreasing age: 1) metamorphlc schists and gneisses; 2) diorite suite rocks - diorite, quartz diorite, tonalite; 3) rocks of andesitic composition; 4) granodiorites, coarse porphyritic granodiorite, quartzfeldspar porphyry, feldspar porphyry; and 5) lamprophyre. Hydrothermal alteration is known to have resulted from emplacement of the hornblende-feldspar porphyry through to the quartz-feldspar porphyry. Molybdenum mineralization is chiefly associated with the quartz-feldspar porphyry. Ore mineralogy is dominated by pyrite with subordinate molybdenite, chalcopyrite, covelline, sphalerite, galena, scheelite, cassiterite and wolframite. Molybdenite exhibits a textural gradation outward from the quartz-feldspar porphyry. That is, disseminated rosettes and rosettes in quartz veins to fine-grained molybdenite in quartz veins and potassic altered fractures to fine-grained molybdenite paint or 6mears in the peripheral zones. The quartz-feldspar porphyry dykes were emplaced in an inhomogeneous stress field. The trend of dykes, faults and shear zones is 0^1° to 063° and dips between 58° NW and 86* SE. Joint Pole distribution reflects this fault orientation. These late deformatior maxima are probably superimposed upon annuli representing diapiric emplacement of the plutons. A model of emplacement involving two magmatic pulses is given in the following sequence: Diorite pulse (i) dioritequartz diorite, (ii) tonalites; granodiorite pulse (iii) hornblende-fildspar microporphyry, hornblende/biotite porphyry, (iv) coarse grained granodiorite, (v) quartz-feldspar porphyry, (vi) feldspar porphyry, and (vii) lamprophyre. The combination of plutonic and coarse porphyritic textures, extensive propylitic overprinting of potassic alteration assemblages suggests that the. prospect represents the lower reaches of a porphyry system.
Resumo:
The nature of this research is to investigate paleoseismic deformation of glacial soft sediments from three sampling sites throughout the Scottish Highlands; Arrat's Mills, Meikleour and Glen Roy. The paleoseismic evidence investigated in this research will provide a basis for applying criteria to soft sediment deformation structures, and the trigger mechanisms that create these structures. Micromorphology is the tool used in this to investigate paleoseismic deformation structures in thin section. Thin section analysis, (micromorphology) of glacial sediments from the three sampling sites is used to determine microscale evidence of past earthquakes that can be correlated to modem-day events and possibly lead to a better understanding of the impact of earthquakes throughout a range of sediment types. The significance of the three sampling locations is their proximity to two major active fault zones that cross Scotland. The fault zones are the Highland Boundary Fault and the Great Glen Fault, these two major faults that parallel each other and divide the country in half Sims (1975) used a set of seven criteria that identified soft sediment deformation structures created by a magnitude six earthquake in Cahfomia. Using criteria set forth by Sims (1975), the paleoseismic evidence can be correlated to the magnitude of the deformation structures found in the glacial sediments. This research determined that the microstructures at Arrat's Mill, Meikleour and Glen Roy are consistent with a seismically induced origin. It has also been demonstrated that, even without the presence of macrostructures, the use of micromorphology techniques in detecting such activity within sediments is of immense value.
Resumo:
The McElroy and Larder Lake assemblages, located in the southern Abitibi Greenstone Belt are two late Archean metavolcanic sequences having markedly contrasting physical characteristics arid are separated from one another by a regional fault. An assemblage is an informal term which describes stratified volcanic and/or sedimentary rock units built during a specific time period in a similar depositional or volcanic setting and are commonly bounded by faults, unconformities or intrusions. The petrology and petrogenesis of these assemblages have been investigated to determine if a genetic link exists between the two adjacent assemblages. The McElroy assemblage is homoclinal sequence of evolved massive and pillowed fl.ows, which except for the basal unit represents a progressively fractionated volcanic pile. From the base to the top of the assemblage the lithologies include Fe-tholeiitic, dendritic flows; komatiite basaltic, ultramafic flows; Mg-tholeiitic, leucogabbro; Mg-tholeiitic, massive flows and Fe-tholeiitic, pillowed flows. Massive flows range from coarse grained to aphanitic and are commonly plagioclase glomerophyric. The Larder Lake assemblage consists of komatiitic, Mg-rich and Fe-rich tholeiitic basalts, structurally disrupted by folds and faults. Tholeiitic rocks in the Larder Lake assemblage range from aphanitic to coarse grained massive and pillowed flows. Komatiitic flows contain both spinifex and massive textures. Geochemical variability within both assemblages is attributed to different petrogenetic histories. The lithologies of the McElroy assemblage were derived by partial melting of a primitive mantle source followed by various degrees of crystal fractionation. Partial melting of a primitive mantle source generated the ultramafic flows and possibly other flows in the assemblage. Fractionation of ultramafic flows may have also produced the more evolved McElroy lithologies. The highly evolved, basal, dendritic flow may represent the upper unit 3 of a missing volcanic pile in which continued magmatism generated the remaining McElroy lithologies. Alternatively, the dendritic flows may represent a primary lava derived from a low degree (10-15%) partial melt of a primitive mantle source which was followed by continued partial melting to generate the ultramafic flows. The Larder Lake lithologies were derived by partial melting of a komatiitic source followed by gabbroic fractionation. The tectonic environment for both assemblages is interpreted to be an oceanic arc setting. The McElroy assemblage lavas were generated in a mature back arc setting whereas the Larder Lake lithologies were produced during the early stages of komatiitc crust subduction. This setting is consistent with previous models involving plate tectonic processes for the generation of other metavolcanic assemblages in the Abitibi Greenstone Belt.
Resumo:
On Mars, interior layered deposits (ILD) provide evidence that water was once stable at the surface of the planet and present in large quantities. In West Candor Chasma, the ILD and their associated landforms record the depositional history of the chasma, and the deformation of those deposits provide insight into the stresses acting on them and the chasma as a whole. The post ILD structural history of West Candor is interpreted by analyzing the spatial relationships and orientation trends of structural features within the ILD. Therecording of stresses through brittle deformation of ILDs implies that the ILD had been lithified before the stress was imposed. Based on the prominent orientation trends of deformation features, the orientation of the stress regime acting upon the ILD appears to be linked to the regime that initially created the chasma-forming faults. An additional minor stress orientation was also revealed and may be related to large structures outside west Candor Chasma. The late depositional history of Ceti Mensa is herein investigated by examining the attributes and spatial relationship between unique corrugated, linear formations (CLF). The CLFs appear to be aeolian in origin but display clear indications of brittle deformation, indicating they have been Iithified. Evidence of lithification and the mineral composition of the surrounding material support the interpretation of circulating water in the area.
Resumo:
Brock’s Monument is owned by Parks Canada and maintained by the Niagara Parks Commission in collaboration with the Friends of Fort George and Niagara National Historic Sites. It is located in Queenston Heights Park atop the Niagara Escarpment. On March 14, 1815, Parliament passed an act to erect a monument to the memory of General Isaac Brock. A design by engineer Francis Hall was selected. He envisioned a 135 ft. tall Tuscan column, made out of stone with a winding staircase inside. By the spring of 1824, work had begun on the monument. In June of that year, the cornerstone was laid and William Lyon Mackenzie was in attendance at the ceremony. It was on October 13th, 1824 (the anniversary of Brock’s death) that 6000 people traveled to Queenston to inter the remains of Brock and Lieutenant-Colonel Macdonell. This was the second burial for both. After 3 years the tower had reached 135 feet, but there was no inscription at the base, the fence around the observation deck had not been installed and there was no statue of Brock. Hall submitted a plan to finish the statue, but he was turned down and a simple ornament was placed where the Brock statue should have been. A massive blast of gunpowder destroyed the monument in 1840. It is alleged that an American sympathizer with the Upper Canada Rebellion set off the blast. Brock and Macdonell’s bodies were reburied in the Hamilton Family Cemetery in Queenston. The present monument was rebuilt in 1853. William Thomas (designer of St. Michael’s Cathedral in Toronto) was the architect. Brock and Macdonell were once again laid to rest in separate vaults at the statue. In 1968, Brock’s Monument was declared a national historical site. In 2005, it was closed to the public due to safety concerns, but it reopened in 2010. Source: http://www.thecanadianencyclopedia.com/articles/brocks-monument-queenston-heights
Resumo:
Hebes Chasma is an 8 km deep, 126 by 314 km, isolated basin that is partially filled with interior layered deposits (ILD), massive deposits of water altered strata. By analyzing the ILD’s structure, stratigraphy and mineralogy, as well as the perimeter faults exposed in the plateau adjacent to the chasma, the evolution and depositional history of Hebes Chasma is interpreted. Three distinct ILD units were found and are informally referred to as the Lower, Upper and Late ILDs. These units have differing layer thicknesses, layer attitudes, mineralogies and erosional landforms. Based on observations of the plateau, wall morphology and slump blocks within the chasma’s interior, chasma evolution appears to be controlled by cross-faults that progressively detached sections of the wall. A scenario involving the loss of subsurface volume and ash fall events is proposed as the dominant setting throughout Hebes’ geologic history.
Resumo:
Dans ce mémoire, nous décrivons le travail effectué pour étendre nos connaissances sur les sources d’instabilité instrumentales en imagerie de résonance magnétique, en particulier dans le domaine anatomique par une étude où cinq adultes ont été scannés quatre fois dans la même plate-forme IRM, deux fois avant et deux fois après une mise à niveau importante d’un scanner 3T de Siemens. Les volumes de l’hippocampe droit et gauche de chaque sujet ont été mesurés avec une segmentation manuelle. Nous avons analysé la fiabilité test-retest avant et après la mise à niveau du système d’IRM. Dans le domaine fonctionnel, cinq adultes ont été scannés quatre fois dans la même plate forme IRM deux fois avant et deux fois après la même mise à niveau du scanneur. Les acquisitions du signal BOLD sont faites dans deux différentes résolutions spatiales (2x2x2mm et 4x4x4mm) pour évaluer la sensibilité du signal BOLD sous conditions de haute et basse SNR. Une dernière étude fonctionnelle sur fantôme avait pour but d’étudier la stabilité de la machine pour les images fonctionnelles et détecter les sources de bruit de type machine. La séquence EPI (Echo Planar Imaging) d’écho de gradient à deux dimensions a été utilisée. Des analyses comme le pourcentage des fluctuations et l’analyse de Fourier des résidus ont également été réalisées. Nous résultats indiquent que les différences dans le matériel provenant d’une importante mise à niveau ne peuvent pas compromettre la validité des études structurelles et fonctionnelles faites à travers la mise à niveau du scanneur. Les acquisitions quotidiennes ont permis de suivre l’évolution de la stabilité et de détecter toute source de bruit qui peut détériorer la détection des activations dans les images fonctionnelles.
Resumo:
Depuis la valorisation du corps comme site identitaire et comme langage autre dans la théorisation de l’écriture au féminin des années 1970, les représentations du corps, notamment du corps féminin, occupent la scène romanesque jusqu’à aujourd’hui. Dans cette perspective, le présent mémoire s’intéresse au corps fantomatique des héroïnes du Ravissement de Lol V. Stein de Marguerite Duras et de La Maison étrangère d’Élise Turcotte. Le corps se fait littéralement hantise chez Duras et Turcotte : il est marqué d’absence, d’étrangeté, de fatigue et d’errance, ne trouvant plus de lieu d’être ni de repères à la suite d’un événement « traumatique », dans le cas de Lol, ou à la suite d’une séparation, dans celui d’Élisabeth. Les protagonistes sont sous l’emprise d’un sentiment d’étrangeté qui spectralise le corps en introduisant un décalage dans le rapport à soi et à autrui. Ce sentiment est causé en partie par une mémoire défaillante qui fragmente leur identité. C’est par un travail mémoriel que Lol V. Stein et Élisabeth tenteront de résoudre la hantise de leur histoire individuelle et familiale. Le texte fait écho à la corporalité fantomatique – mise en scène selon diverses représentations du corps dématérialisé – en se spectralisant à son tour par l’inscription des « blancs » dans l’écriture. Le processus d’effacement des corps sera mis en parallèle avec une spatio-temporalité elle aussi marquée par la hantise du passé. La spectralité apparaît, dans le récit contemporain au féminin, pour témoigner d’une identité (cor)rompue par la rupture ; celle-ci devient prétexte à une réflexion sur la manière d’habiter son corps et d’un être-au-monde à repenser.
Resumo:
Les changements sont faits de façon continue dans le code source des logiciels pour prendre en compte les besoins des clients et corriger les fautes. Les changements continus peuvent conduire aux défauts de code et de conception. Les défauts de conception sont des mauvaises solutions à des problèmes récurrents de conception ou d’implémentation, généralement dans le développement orienté objet. Au cours des activités de compréhension et de changement et en raison du temps d’accès au marché, du manque de compréhension, et de leur expérience, les développeurs ne peuvent pas toujours suivre les normes de conception et les techniques de codage comme les patrons de conception. Par conséquent, ils introduisent des défauts de conception dans leurs systèmes. Dans la littérature, plusieurs auteurs ont fait valoir que les défauts de conception rendent les systèmes orientés objet plus difficile à comprendre, plus sujets aux fautes, et plus difficiles à changer que les systèmes sans les défauts de conception. Pourtant, seulement quelques-uns de ces auteurs ont fait une étude empirique sur l’impact des défauts de conception sur la compréhension et aucun d’entre eux n’a étudié l’impact des défauts de conception sur l’effort des développeurs pour corriger les fautes. Dans cette thèse, nous proposons trois principales contributions. La première contribution est une étude empirique pour apporter des preuves de l’impact des défauts de conception sur la compréhension et le changement. Nous concevons et effectuons deux expériences avec 59 sujets, afin d’évaluer l’impact de la composition de deux occurrences de Blob ou deux occurrences de spaghetti code sur la performance des développeurs effectuant des tâches de compréhension et de changement. Nous mesurons la performance des développeurs en utilisant: (1) l’indice de charge de travail de la NASA pour leurs efforts, (2) le temps qu’ils ont passé dans l’accomplissement de leurs tâches, et (3) les pourcentages de bonnes réponses. Les résultats des deux expériences ont montré que deux occurrences de Blob ou de spaghetti code sont un obstacle significatif pour la performance des développeurs lors de tâches de compréhension et de changement. Les résultats obtenus justifient les recherches antérieures sur la spécification et la détection des défauts de conception. Les équipes de développement de logiciels doivent mettre en garde les développeurs contre le nombre élevé d’occurrences de défauts de conception et recommander des refactorisations à chaque étape du processus de développement pour supprimer ces défauts de conception quand c’est possible. Dans la deuxième contribution, nous étudions la relation entre les défauts de conception et les fautes. Nous étudions l’impact de la présence des défauts de conception sur l’effort nécessaire pour corriger les fautes. Nous mesurons l’effort pour corriger les fautes à l’aide de trois indicateurs: (1) la durée de la période de correction, (2) le nombre de champs et méthodes touchés par la correction des fautes et (3) l’entropie des corrections de fautes dans le code-source. Nous menons une étude empirique avec 12 défauts de conception détectés dans 54 versions de quatre systèmes: ArgoUML, Eclipse, Mylyn, et Rhino. Nos résultats ont montré que la durée de la période de correction est plus longue pour les fautes impliquant des classes avec des défauts de conception. En outre, la correction des fautes dans les classes avec des défauts de conception fait changer plus de fichiers, plus les champs et des méthodes. Nous avons également observé que, après la correction d’une faute, le nombre d’occurrences de défauts de conception dans les classes impliquées dans la correction de la faute diminue. Comprendre l’impact des défauts de conception sur l’effort des développeurs pour corriger les fautes est important afin d’aider les équipes de développement pour mieux évaluer et prévoir l’impact de leurs décisions de conception et donc canaliser leurs efforts pour améliorer la qualité de leurs systèmes. Les équipes de développement doivent contrôler et supprimer les défauts de conception de leurs systèmes car ils sont susceptibles d’augmenter les efforts de changement. La troisième contribution concerne la détection des défauts de conception. Pendant les activités de maintenance, il est important de disposer d’un outil capable de détecter les défauts de conception de façon incrémentale et itérative. Ce processus de détection incrémentale et itérative pourrait réduire les coûts, les efforts et les ressources en permettant aux praticiens d’identifier et de prendre en compte les occurrences de défauts de conception comme ils les trouvent lors de la compréhension et des changements. Les chercheurs ont proposé des approches pour détecter les occurrences de défauts de conception, mais ces approches ont actuellement quatre limites: (1) elles nécessitent une connaissance approfondie des défauts de conception, (2) elles ont une précision et un rappel limités, (3) elles ne sont pas itératives et incrémentales et (4) elles ne peuvent pas être appliquées sur des sous-ensembles de systèmes. Pour surmonter ces limitations, nous introduisons SMURF, une nouvelle approche pour détecter les défauts de conception, basé sur une technique d’apprentissage automatique — machines à vecteur de support — et prenant en compte les retours des praticiens. Grâce à une étude empirique portant sur trois systèmes et quatre défauts de conception, nous avons montré que la précision et le rappel de SMURF sont supérieurs à ceux de DETEX et BDTEX lors de la détection des occurrences de défauts de conception. Nous avons également montré que SMURF peut être appliqué à la fois dans les configurations intra-système et inter-système. Enfin, nous avons montré que la précision et le rappel de SMURF sont améliorés quand on prend en compte les retours des praticiens.
Resumo:
Les logiciels sont en constante évolution, nécessitant une maintenance et un développement continus. Ils subissent des changements tout au long de leur vie, que ce soit pendant l'ajout de nouvelles fonctionnalités ou la correction de bogues. Lorsque les logiciels évoluent, leurs architectures ont tendance à se dégrader et deviennent moins adaptables aux nouvelles spécifications des utilisateurs. En effet, les architectures de ces logiciels deviennent plus complexes et plus difficiles à maintenir à cause des nombreuses dépendances entre les artefacts. Par conséquent, les développeurs doivent comprendre les dépendances entre les artefacts des logiciels pour prendre des mesures proactives qui facilitent les futurs changements et ralentissent la dégradation des architectures des logiciels. D'une part, le maintien d'un logiciel sans la compréhension des les dépendances entre ses artefacts peut conduire à l'introduction de défauts. D'autre part, lorsque les développeurs manquent de connaissances sur l'impact de leurs activités de maintenance, ils peuvent introduire des défauts de conception, qui ont un impact négatif sur l'évolution du logiciel. Ainsi, les développeurs ont besoin de mécanismes pour comprendre comment le changement d'un artefact impacte le reste du logiciel. Dans cette thèse, nous proposons trois contributions principales : La spécification de deux nouveaux patrons de changement et leurs utilisations pour fournir aux développeurs des informations utiles concernant les dépendances de co-changement. La spécification de la relation entre les patrons d'évolutions des artefacts et les fautes. La découverte de la relation entre les dépendances des anti-patrons et la prédisposition des différentes composantes d'un logiciel aux fautes.
Resumo:
Dans ce travail, j’étudierai principalement un modèle abélien de Higgs en 2+1 dimensions, dans lequel un champ scalaire interagit avec un champ de jauge. Des défauts topologiques, nommés vortex, sont créés lorsque le potentiel possède un minimum brisant spontanément la symétrie U(1). En 3+1 dimensions, ces vortex deviennent des défauts à une dimension. Ils ap- paraissent par exemple en matière condensée dans les supraconducteurs de type II comme des lignes de flux magnétique. J’analyserai comment l’énergie des solutions statiques dépend des paramètres du modèle et en particulier du nombre d’enroulement du vortex. Pour le choix habituel de potentiel (un poly- nôme quartique dit « BPS »), la relation entre les masses des deux champs mène à deux types de comportements : type I si la masse du champ de jauge est plus grande que celle du champ sca- laire et type II inversement. Selon le cas, la dépendance de l’énergie au nombre d’enroulement, n, indiquera si les vortex auront tendance à s’attirer ou à se repousser, respectivement. Lorsque le flux emprisonné est grand, les vortex présentent un profil où la paroi est mince, permettant certaines simplifications dans l’analyse. Le potentiel, un polynôme d’ordre six (« non-BPS »), est choisi tel que le centre du vortex se trouve dans le vrai vide (minimum absolu du potentiel) alors qu’à l’infini le champ scalaire se retrouve dans le faux vide (minimum relatif du potentiel). Le taux de désintégration a déjà été estimé par une approximation semi-classique pour montrer l’impact des défauts topologiques sur la stabilité du faux vide. Le projet consiste d’abord à établir l’existence de vortex classi- quement stables de façon numérique. Puis, ma contribution fut une analyse des paramètres du modèle révélant le comportement énergétique de ceux-ci en fonction du nombre d’enroulement. Ce comportement s’avèrera être différent du cas « BPS » : le ratio des masses ne réussit pas à décrire le comportement observé numériquement.
Resumo:
Vues imprenables est un récit où se succèdent les monologues de six personnages se trouvant dans un hôtel de luxe le temps d’une fin de semaine. À travers les détours discursifs que chaque personnage emprunte, les mécanismes textuels qu’il ou elle utilise pour éviter de dire et de se confronter aux réminiscences de ses fautes passées, la question du voir et de l’aveuglement se lie étroitement à celle du passage à l’acte. Quels forfaits ces hommes et ces femmes ont-ils commis ? Sont-ils capables de « se voir » réellement ? Quelle est la portée du regard sur le geste qu’ils ont antérieurement posé ? S’inspirant, entre autres, du jeu de société Clue, des Dix Commandements et de l’esthétique du film The Shining, Vues imprenables interroge la notion de repentir, cherchant à savoir jusqu’où le « voile » de la parole peut dissimuler certains actes, jusqu’à quel point le voir peut se révéler insaisissable. L’essai intitulé « Paradoxes du voir et de l’aveuglement dans Ceux d’à côté de Laurent Mauvignier » tisse également des liens avec Vues imprenables : en questionnant les limites et les possibilités du voir dans le roman de Mauvignier, il s’agit en effet d’analyser comment l’avènement de la vue, dans ce récit, laisse en tout temps présager sa possible perte, mais aussi de quelles façons le geste criminel devient « aveugle » au moment même où il est perpétré. En revisitant certains des plus grands mythes grecs, tels ceux d’Œdipe, de Tirésias et de Gorgô, cet essai étudie plus particulièrement la figure de l’alter ego, ce « moi à côté », tantôt coupable tantôt témoin, qui hante le récit de Mauvignier et il propose une réflexion sur les paradoxes du rapport au vu à partir des travaux d’Hélène Cixous, de Georges Didi-Huberman, de J.-B. Pontalis et de Maurice Merleau-Ponty.
Resumo:
Le présent travail de recherche se propose d’analyser les dispositifs de gouvernance nodale de la sécurité locale en France, alors que le paradigme a vu le jour et s’est développé dans les pays anglo-saxons fortement décentralisés. C’est qu’en France les dispositifs de gouvernance nodale s’apparentent bien plus à un dialogue entre central et local qu’entre secteur public et privé. La recherche identifie ainsi les caractéristiques de la gouvernance nodale au cœur des dispositifs partenariaux de la sécurité locale, supportés par le Contrat Local de Sécurité (CLS), le Conseil Local de Sécurité et de Prévention de la Délinquance (CLSPD) ou encore le Groupe Local de Traitement de la Délinquance (GLTD). La recherche identifie ainsi les stratégies de décentrage de l’État et de transfert de la production de sécurité vers une diversité d’acteurs locaux, dont les maires et les services municipaux. Une diversité de politiques publiques locales de sécurité de pertinences différentes voit alors le jour. Le premier enseignement de cette recherche est l’importance du rôle joué par le node super-structurel, que nous appelons super-node et qui regroupe le maire ou l’élu local à la sécurité, le responsable de la police d’État, celui de la police municipale et le représentant de l’État. Il apparaît que dans le dispositif de gouvernance nodale, ce groupe informel génère la dynamique collective qui permet de regrouper, tant les producteurs que les consommateurs de sécurité locale gravitant au sein du réseau local de sécurité. La quarantaine d’entrevues qualitatives permet également d’identifier que la Justice, productrice de sécurité comme peut l’être aussi la sécurité privée ou la médiation sociale, apparaît plus distante que ce que pouvait laisser penser l’étude des textes réglementaires organisant le partenariat. Les bailleurs sociaux, les transporteurs et l’Éducation nationale apparaissent clairement comme des acteurs importants, mais périphériques de sécurité, en intégrant cette « famille élargie » de la sécurité locale. Le deuxième enseignement est relatif au fonctionnement même du dispositif nodal ainsi que du super-node, la recherche permettant d’identifier les ressources mutualisées par l’ensemble des nodes. Cela permet également d’identifier les mécanismes de répartition des tâches entre les différents acteurs et plus particulièrement entre les deux organisations policières d’État et municipale, travaillant autant en compétition, qu’en complémentarité. Cette recherche explore également le rôle joué par l’information dans le fonctionnement du super-node ainsi que l’importance de la confiance dans les relations interpersonnelles des représentants des nodes au sein du super-node. Enfin, l’étude permet également de mettre en perspective les limites du dispositif actuel de gouvernance nodale : le défaut avéré d’outils performants permettant d’informer convenablement le super-node quant aux phénomènes de violence ainsi que d’évaluer l’efficience du dispositif. Cela permet également de questionner l’autonomie des dispositifs de gouvernance nodale, la confiance pouvant ouvrir à la déviance et la collégialité au défaut de la traçabilité de la responsabilité. La fracture avec la société civile apparaît clairement et ne facilite pas le contrôle sur un mode de production de sécurité qui se développe en parallèle des dispositifs traditionnels de démocratie locale.