999 resultados para Industrie de la construction
Resumo:
Résumé : J'ai souvent vu des experts être d'avis contraires. Je n'en ai jamais vu aucun avoir tort. Auguste Detoeuf Propos d'O.L. Brenton, confiseur, Editions du Tambourinaire, 1948. En choisissant volontairement une problématique comptable typiquement empirique, ce travail s'est attelé à tenter de démontrer la possibilité de produire des enseignements purement comptables (ie à l'intérieur du schème de représentation de la Comptabilité) en s'interdisant l'emprunt systématique de theories clé-en-main à l'Économie -sauf quant cela s'avère réellement nécessaire et légitime, comme dans l'utilisation du CAPM au chapitre précédent. Encore une fois, rappelons que cette thèse n'est pas un réquisitoire contre l'approche économique en tant que telle, mais un plaidoyer visant à mitiger une telle approche en Comptabilité. En relation avec le positionnement épistémologique effectué au premier chapitre, il a été cherché à mettre en valeur l'apport et la place de la Comptabilité dans l'Économie par le positionnement de la Comptabilité en tant que discipline pourvoyeuse de mesures de représentation de l'activité économique. Il nous paraît clair que si l'activité économique, en tant que sémiosphère comptable directe, dicte les observations comptables, la mesure de ces dernières doit, tant que faire se peut, tenter de s'affranchir de toute dépendance à la discipline économique et aux théories-méthodes qui lui sont liées, en adoptant un mode opératoire orthogonal, rationnel et systématique dans le cadre d'axiomes lui appartenant en propre. Cette prise de position entraîne la définition d'un nouveau cadre épistémologique par rapport à l'approche positive de la Comptabilité. Cette dernière peut se décrire comme l'expression philosophique de l'investissement de la recherche comptable par une réflexion méthodique propre à la recherche économique. Afin d'être au moins partiellement validé, ce nouveau cadre -que nous voyons dérivé du constructivisme -devrait faire montre de sa capacité à traiter de manière satisfaisante une problématique classique de comptabilité empirico-positive. Cette problématique spécifique a été choisie sous la forme de traitement-validation du principe de continuité de l'exploitation. Le principe de continuité de l'exploitation postule (énonciation d'une hypothèse) et établit (vérification de l'hypothèse) que l'entreprise produit ses états financiers dans la perspective d'une poursuite normale de ses activités. Il y a rupture du principe de continuité de l'exploitation (qui devra alors être écartée au profit du principe de liquidation ou de cession) dans le cas de cessation d'activité, totale ou partielle, volontaire ou involontaire, ou la constatation de faits de nature à compromettre la continuité de l'exploitation. Ces faits concernent la situation financière, économique et sociale de l'entreprise et représentent l'ensemble des événements objectifs 33, survenus ou pouvant survenir, susceptibles d'affecter la poursuite de l'activité dans un avenir prévisible. A l'instar de tous les principes comptables, le principe de continuité de l'exploitation procède d'une considération purement théorique. Sa vérification requiert toutefois une analyse concrète, portant réellement et de manière mesurable à conséquence, raison pour laquelle il représente un thème de recherche fort apprécié en comptabilité positive, tant il peut (faussement) se confondre avec les études relatives à la banqueroute et la faillite des entreprises. Dans la pratique, certaines de ces études, basées sur des analyses multivariées discriminantes (VIDA), sont devenues pour l'auditeur de véritables outils de travail de par leur simplicité d'utilisation et d'interprétation. À travers la problématique de ce travail de thèse, il a été tenté de s'acquitter de nombreux objectifs pouvant être regroupés en deux ensembles : celui des objectifs liés à la démarche méthodologique et celui relevant de la mesure-calibration. Ces deux groupes-objectifs ont permis dans une dernière étape la construction d'un modèle se voulant une conséquence logique des choix et hypothèses retenus.
Resumo:
Des techniques de visualisation sont exploitées dans les enquêtes judiciaires afin de facili- ter le traitement d'affaires d'envergure. Les éléments pertinents de l'enquête sont repré- sentés par des schémas décrivant les relations entre les événements et les entités d'inté- rêt. Les exploitations classiques de ces techniques qui s'apparentent à la construction de graphes, sont par exemple: la représentation de réseaux criminels, de trafics de marchan- dises, de chronologies d'événements, ainsi que la visualisation de relations téléphoniques et financières. Dans ce contexte, la visualisation soutient un nombre importants d'objectifs, tels qu'analyser les traces et les informations collectées, évaluer a posteriori une investiga- tion, aider à qualifier les infractions, faciliter l'appréhension d'un dossier et la prise de déci- sions au cours d'une enquête, voire soutenir une argumentation lors du procès. La pratique intègre des outils logiciels simples qui produisent des graphiques élégants et souvent per- cutants. Cette recherche tend à montrer qu'il existe des disparités étonnantes lors de l'ex- ploitation de ces techniques. Des biais de raisonnement et de perception peuvent être induits, allant jusqu'à provoquer des décisions aux conséquences parfois désastreuses. Pour mettre en évidence ces difficultés, des évaluations ont été effectuées avec des prati- ciens et des étudiants. Elles ont permis d'établir une image empirique de l'étendue des variations de conception et d'interprétation des représentations, ainsi que de leurs impacts sur la prise de décision. La nature et la diversité des concepts à représenter, l'absence de consensus sur la manière de représenter les données, la diversité des solutions visuelles envisageables, les contraintes imposées par les outils exploités et l'absence d'une forma- lisation claire du langage, sont autant de causes supposées des difficultés. Ce constat révèle la nécessité de consolider les méthodes pratiquées.
Resumo:
Parmi les constructions réalisées par les insectes dans les régions tempérées, les fourmillières des fourmis des bois sont parmi les plus spectaculaires. Pour abriter leurs sociétés, les fourmis des bois (Formica sous-genre Formica, groupe rufa) construisent de grands dômes de matériel végétal sec (aiguilles de conifères, brindilles, tiges de graminées...). Selon les espèces, le milieu colonisé et la nature des matériaux disponibles, la forme et la taille du nid peuvent varier, mais la fonction reste toujours la même : assurer un abri pour les fourmis et un climat favorable pour le développement de leur couvain (oeufs, larves et nymphes). Grâce à des expériences menées dans le Jura suisse, nous décrivons dans cet article quelques aspects importants de la dynamique de la construction de la fourmillière chez Formica paralugubris. Nous présentons en outre en introduction un historique des précurseurs qui se sont intéressés aux fourmillières et un survol des connaissances acquises jusqu'à nos jours.
Resumo:
Devant la multiplication de données, de classements, l'auteur interroge la configuration d'acteurs à l'origine de la problématisation d'indicateurs statistiques en grilles de lecture des inégalités d'accès à l'enseignement supérieur. La comparaison et la caractérisation des indicateurs d'inégalités d'accès des bases internationales (UNESCO, OCDE, EUROSTAT) et nationales (Allemagne, Angleterre, France et Suisse) questionnent la tension entre les discours et les indicateurs produits et leur inscription nationale. Qui dit quoi et avec quels résultats ? Quelles configurations d'acteurs caractérisent ces processus ? De quelles relations de pouvoir sont-ils le produit ? L'auteur retrace la mise à l'agenda des organismes européens du problème des inégalités d'accès au supérieur, identifie les politiques définies et les confronte aux indicateurs produits montrant la dissonance entre les discours et ce que les indicateurs permettent de problématiser, le décalage entre recommandations et outils. Pourquoi un tel contraste ? Quels sont les mécanismes à l'oeuvre ? Est-ce un problème technique, politique ? Que révèle cette dissonance des spécificités nationales dans la construction sociale des inégalités ?
Resumo:
Un système efficace de sismique tridimensionnelle (3-D) haute-résolution adapté à des cibles lacustres de petite échelle a été développé. Dans le Lac Léman, près de la ville de Lausanne, en Suisse, des investigations récentes en deux dimension (2-D) ont mis en évidence une zone de faille complexe qui a été choisie pour tester notre système. Les structures observées incluent une couche mince (<40 m) de sédiments quaternaires sub-horizontaux, discordants sur des couches tertiaires de molasse pentées vers le sud-est. On observe aussi la zone de faille de « La Paudèze » qui sépare les unités de la Molasse du Plateau de la Molasse Subalpine. Deux campagnes 3-D complètes, d?environ d?un kilomètre carré, ont été réalisées sur ce site de test. La campagne pilote (campagne I), effectuée en 1999 pendant 8 jours, a couvert 80 profils en utilisant une seule flûte. Pendant la campagne II (9 jours en 2001), le nouveau système trois-flûtes, bien paramétrés pour notre objectif, a permis l?acquisition de données de très haute qualité sur 180 lignes CMP. Les améliorations principales incluent un système de navigation et de déclenchement de tirs grâce à un nouveau logiciel. Celui-ci comprend un contrôle qualité de la navigation du bateau en temps réel utilisant un GPS différentiel (dGPS) à bord et une station de référence près du bord du lac. De cette façon, les tirs peuvent être déclenchés tous les 5 mètres avec une erreur maximale non-cumulative de 25 centimètres. Tandis que pour la campagne I la position des récepteurs de la flûte 48-traces a dû être déduite à partir des positions du bateau, pour la campagne II elle ont pu être calculées précisément (erreur <20 cm) grâce aux trois antennes dGPS supplémentaires placées sur des flotteurs attachés à l?extrémité de chaque flûte 24-traces. Il est maintenant possible de déterminer la dérive éventuelle de l?extrémité des flûtes (75 m) causée par des courants latéraux ou de petites variations de trajet du bateau. De plus, la construction de deux bras télescopiques maintenant les trois flûtes à une distance de 7.5 m les uns des autres, qui est la même distance que celle entre les lignes naviguées de la campagne II. En combinaison avec un espacement de récepteurs de 2.5 m, la dimension de chaque «bin» de données 3-D de la campagne II est de 1.25 m en ligne et 3.75 m latéralement. L?espacement plus grand en direction « in-line » par rapport à la direction «cross-line» est justifié par l?orientation structurale de la zone de faille perpendiculaire à la direction «in-line». L?incertitude sur la navigation et le positionnement pendant la campagne I et le «binning» imprécis qui en résulte, se retrouve dans les données sous forme d?une certaine discontinuité des réflecteurs. L?utilisation d?un canon à air à doublechambre (qui permet d?atténuer l?effet bulle) a pu réduire l?aliasing observé dans les sections migrées en 3-D. Celui-ci était dû à la combinaison du contenu relativement haute fréquence (<2000 Hz) du canon à eau (utilisé à 140 bars et à 0.3 m de profondeur) et d?un pas d?échantillonnage latéral insuffisant. Le Mini G.I 15/15 a été utilisé à 80 bars et à 1 m de profondeur, est mieux adapté à la complexité de la cible, une zone faillée ayant des réflecteurs pentés jusqu?à 30°. Bien que ses fréquences ne dépassent pas les 650 Hz, cette source combine une pénétration du signal non-aliasé jusqu?à 300 m dans le sol (par rapport au 145 m pour le canon à eau) pour une résolution verticale maximale de 1.1 m. Tandis que la campagne I a été acquise par groupes de plusieurs lignes de directions alternées, l?optimisation du temps d?acquisition du nouveau système à trois flûtes permet l?acquisition en géométrie parallèle, ce qui est préférable lorsqu?on utilise une configuration asymétrique (une source et un dispositif de récepteurs). Si on ne procède pas ainsi, les stacks sont différents selon la direction. Toutefois, la configuration de flûtes, plus courtes que pour la compagne I, a réduit la couverture nominale, la ramenant de 12 à 6. Une séquence classique de traitement 3-D a été adaptée à l?échantillonnage à haute fréquence et elle a été complétée par deux programmes qui transforment le format non-conventionnel de nos données de navigation en un format standard de l?industrie. Dans l?ordre, le traitement comprend l?incorporation de la géométrie, suivi de l?édition des traces, de l?harmonisation des «bins» (pour compenser l?inhomogénéité de la couverture due à la dérive du bateau et de la flûte), de la correction de la divergence sphérique, du filtrage passe-bande, de l?analyse de vitesse, de la correction DMO en 3-D, du stack et enfin de la migration 3-D en temps. D?analyses de vitesse détaillées ont été effectuées sur les données de couverture 12, une ligne sur deux et tous les 50 CMP, soit un nombre total de 600 spectres de semblance. Selon cette analyse, les vitesses d?intervalles varient de 1450-1650 m/s dans les sédiments non-consolidés et de 1650-3000 m/s dans les sédiments consolidés. Le fait que l?on puisse interpréter plusieurs horizons et surfaces de faille dans le cube, montre le potentiel de cette technique pour une interprétation tectonique et géologique à petite échelle en trois dimensions. On distingue cinq faciès sismiques principaux et leurs géométries 3-D détaillées sur des sections verticales et horizontales: les sédiments lacustres (Holocène), les sédiments glacio-lacustres (Pléistocène), la Molasse du Plateau, la Molasse Subalpine de la zone de faille (chevauchement) et la Molasse Subalpine au sud de cette zone. Les couches de la Molasse du Plateau et de la Molasse Subalpine ont respectivement un pendage de ~8° et ~20°. La zone de faille comprend de nombreuses structures très déformées de pendage d?environ 30°. Des tests préliminaires avec un algorithme de migration 3-D en profondeur avant sommation et à amplitudes préservées démontrent que la qualité excellente des données de la campagne II permet l?application de telles techniques à des campagnes haute-résolution. La méthode de sismique marine 3-D était utilisée jusqu?à présent quasi-exclusivement par l?industrie pétrolière. Son adaptation à une échelle plus petite géographiquement mais aussi financièrement a ouvert la voie d?appliquer cette technique à des objectifs d?environnement et du génie civil.<br/><br/>An efficient high-resolution three-dimensional (3-D) seismic reflection system for small-scale targets in lacustrine settings was developed. In Lake Geneva, near the city of Lausanne, Switzerland, past high-resolution two-dimensional (2-D) investigations revealed a complex fault zone (the Paudèze thrust zone), which was subsequently chosen for testing our system. Observed structures include a thin (<40 m) layer of subhorizontal Quaternary sediments that unconformably overlie southeast-dipping Tertiary Molasse beds and the Paudèze thrust zone, which separates Plateau and Subalpine Molasse units. Two complete 3-D surveys have been conducted over this same test site, covering an area of about 1 km2. In 1999, a pilot survey (Survey I), comprising 80 profiles, was carried out in 8 days with a single-streamer configuration. In 2001, a second survey (Survey II) used a newly developed three-streamer system with optimized design parameters, which provided an exceptionally high-quality data set of 180 common midpoint (CMP) lines in 9 days. The main improvements include a navigation and shot-triggering system with in-house navigation software that automatically fires the gun in combination with real-time control on navigation quality using differential GPS (dGPS) onboard and a reference base near the lake shore. Shots were triggered at 5-m intervals with a maximum non-cumulative error of 25 cm. Whereas the single 48-channel streamer system of Survey I requires extrapolation of receiver positions from the boat position, for Survey II they could be accurately calculated (error <20 cm) with the aid of three additional dGPS antennas mounted on rafts attached to the end of each of the 24- channel streamers. Towed at a distance of 75 m behind the vessel, they allow the determination of feathering due to cross-line currents or small course variations. Furthermore, two retractable booms hold the three streamers at a distance of 7.5 m from each other, which is the same distance as the sail line interval for Survey I. With a receiver spacing of 2.5 m, the bin dimension of the 3-D data of Survey II is 1.25 m in in-line direction and 3.75 m in cross-line direction. The greater cross-line versus in-line spacing is justified by the known structural trend of the fault zone perpendicular to the in-line direction. The data from Survey I showed some reflection discontinuity as a result of insufficiently accurate navigation and positioning and subsequent binning errors. Observed aliasing in the 3-D migration was due to insufficient lateral sampling combined with the relatively high frequency (<2000 Hz) content of the water gun source (operated at 140 bars and 0.3 m depth). These results motivated the use of a double-chamber bubble-canceling air gun for Survey II. A 15 / 15 Mini G.I air gun operated at 80 bars and 1 m depth, proved to be better adapted for imaging the complexly faulted target area, which has reflectors dipping up to 30°. Although its frequencies do not exceed 650 Hz, this air gun combines a penetration of non-aliased signal to depths of 300 m below the water bottom (versus 145 m for the water gun) with a maximum vertical resolution of 1.1 m. While Survey I was shot in patches of alternating directions, the optimized surveying time of the new threestreamer system allowed acquisition in parallel geometry, which is preferable when using an asymmetric configuration (single source and receiver array). Otherwise, resulting stacks are different for the opposite directions. However, the shorter streamer configuration of Survey II reduced the nominal fold from 12 to 6. A 3-D conventional processing flow was adapted to the high sampling rates and was complemented by two computer programs that format the unconventional navigation data to industry standards. Processing included trace editing, geometry assignment, bin harmonization (to compensate for uneven fold due to boat/streamer drift), spherical divergence correction, bandpass filtering, velocity analysis, 3-D DMO correction, stack and 3-D time migration. A detailed semblance velocity analysis was performed on the 12-fold data set for every second in-line and every 50th CMP, i.e. on a total of 600 spectra. According to this velocity analysis, interval velocities range from 1450-1650 m/s for the unconsolidated sediments and from 1650-3000 m/s for the consolidated sediments. Delineation of several horizons and fault surfaces reveal the potential for small-scale geologic and tectonic interpretation in three dimensions. Five major seismic facies and their detailed 3-D geometries can be distinguished in vertical and horizontal sections: lacustrine sediments (Holocene) , glaciolacustrine sediments (Pleistocene), Plateau Molasse, Subalpine Molasse and its thrust fault zone. Dips of beds within Plateau and Subalpine Molasse are ~8° and ~20°, respectively. Within the fault zone, many highly deformed structures with dips around 30° are visible. Preliminary tests with 3-D preserved-amplitude prestack depth migration demonstrate that the excellent data quality of Survey II allows application of such sophisticated techniques even to high-resolution seismic surveys. In general, the adaptation of the 3-D marine seismic reflection method, which to date has almost exclusively been used by the oil exploration industry, to a smaller geographical as well as financial scale has helped pave the way for applying this technique to environmental and engineering purposes.<br/><br/>La sismique réflexion est une méthode d?investigation du sous-sol avec un très grand pouvoir de résolution. Elle consiste à envoyer des vibrations dans le sol et à recueillir les ondes qui se réfléchissent sur les discontinuités géologiques à différentes profondeurs et remontent ensuite à la surface où elles sont enregistrées. Les signaux ainsi recueillis donnent non seulement des informations sur la nature des couches en présence et leur géométrie, mais ils permettent aussi de faire une interprétation géologique du sous-sol. Par exemple, dans le cas de roches sédimentaires, les profils de sismique réflexion permettent de déterminer leur mode de dépôt, leurs éventuelles déformations ou cassures et donc leur histoire tectonique. La sismique réflexion est la méthode principale de l?exploration pétrolière. Pendant longtemps on a réalisé des profils de sismique réflexion le long de profils qui fournissent une image du sous-sol en deux dimensions. Les images ainsi obtenues ne sont que partiellement exactes, puisqu?elles ne tiennent pas compte de l?aspect tridimensionnel des structures géologiques. Depuis quelques dizaines d?années, la sismique en trois dimensions (3-D) a apporté un souffle nouveau à l?étude du sous-sol. Si elle est aujourd?hui parfaitement maîtrisée pour l?imagerie des grandes structures géologiques tant dans le domaine terrestre que le domaine océanique, son adaptation à l?échelle lacustre ou fluviale n?a encore fait l?objet que de rares études. Ce travail de thèse a consisté à développer un système d?acquisition sismique similaire à celui utilisé pour la prospection pétrolière en mer, mais adapté aux lacs. Il est donc de dimension moindre, de mise en oeuvre plus légère et surtout d?une résolution des images finales beaucoup plus élevée. Alors que l?industrie pétrolière se limite souvent à une résolution de l?ordre de la dizaine de mètres, l?instrument qui a été mis au point dans le cadre de ce travail permet de voir des détails de l?ordre du mètre. Le nouveau système repose sur la possibilité d?enregistrer simultanément les réflexions sismiques sur trois câbles sismiques (ou flûtes) de 24 traces chacun. Pour obtenir des données 3-D, il est essentiel de positionner les instruments sur l?eau (source et récepteurs des ondes sismiques) avec une grande précision. Un logiciel a été spécialement développé pour le contrôle de la navigation et le déclenchement des tirs de la source sismique en utilisant des récepteurs GPS différentiel (dGPS) sur le bateau et à l?extrémité de chaque flûte. Ceci permet de positionner les instruments avec une précision de l?ordre de 20 cm. Pour tester notre système, nous avons choisi une zone sur le Lac Léman, près de la ville de Lausanne, où passe la faille de « La Paudèze » qui sépare les unités de la Molasse du Plateau et de la Molasse Subalpine. Deux campagnes de mesures de sismique 3-D y ont été réalisées sur une zone d?environ 1 km2. Les enregistrements sismiques ont ensuite été traités pour les transformer en images interprétables. Nous avons appliqué une séquence de traitement 3-D spécialement adaptée à nos données, notamment en ce qui concerne le positionnement. Après traitement, les données font apparaître différents faciès sismiques principaux correspondant notamment aux sédiments lacustres (Holocène), aux sédiments glacio-lacustres (Pléistocène), à la Molasse du Plateau, à la Molasse Subalpine de la zone de faille et la Molasse Subalpine au sud de cette zone. La géométrie 3-D détaillée des failles est visible sur les sections sismiques verticales et horizontales. L?excellente qualité des données et l?interprétation de plusieurs horizons et surfaces de faille montrent le potentiel de cette technique pour les investigations à petite échelle en trois dimensions ce qui ouvre des voies à son application dans les domaines de l?environnement et du génie civil.
Resumo:
In the past two decades, international recommendations have made inclusive education a priority issue. Many countries have adopted school policies inciting players to question their representations about the duties and purposes of schooling and their role therein. In Switzerland, a new national and cantonal framework defines the integration of students with disabilities or special educational needs in the regular classroom as a priority. However, progress in this area is modest and many researchers are left wondering how teachers could be better prepared to meet the special needs of some students. Initial training is thus seen as essential in bringing pre-service teachers to develop open attitudes toward students with disabilities or special educational needs. While many studies have examined the role of training in building professional attitudes, very few deal with teacher representations of inclusive education, let alone those of future teachers. Our research focuses on two samples of pre-service teachers in the beginning, middle or end of their initial training. 261 pre-service teachers for primary education and 212 pre-service teachers for secondaiy education are involved in the study. The research aims to highlight the role of their representative thinking in building their attitudes towards inclusive education. Our results show that objectification remains essentialist and focuses on the prototypes of the most publicized disabilities. They also showed the weakness of the training system as perceived by future teachers. Even though they have maintained or strengthened positive attitudes towards integration, most leave their training with a reinforced sense of apprehension when faced with the disabilities or special educational needs that they expect to encounter in their future work. Although pre-service teachers consider their training insufficient, it nevertheless positively influences their attitudes toward integration. In particular, greater internship practice, however modest it may be, has a significant effect on attitudes of future teachers by increasing their perception of competence and confidence. -- Ces deux dernières décennies, les recommandations internationales ont fait de l'inclusion scolaire une thématique prioritaire. De nombreux pays ont adopté des politiques scolaires obligeant les acteurs scolaires à interroger leurs représentations des missions de l'école et leur rôle au sein de celle-ci. En Suisse, un nouveau cadre national et cantonal a défini comme prioritaire l'intégration dans l'école ordinaire des élèves en situation de handicap ou ayant des besoins éducatifs particuliers. Or, les avancées en la matière restent modestes et de nombreux chercheurs se questionnent sur la manière dont les enseignant-e-s pourraient être mieux préparés à répondre aux besoins éducatifs particuliers de certains élèves. La formation initiale est ainsi perçue comme essentielle pour amener les futurs enseignant-e-s pour développer des attitudes ouvertes envers les élèves en situation de handicap ou ayant des besoins éducatifs particuliers. Si beaucoup d'études portent sur le rôle de la formation dans la construction d'attitudes professionnelles, très peu traitent des représentations des enseignant-e-s à l'égard de l'intégration scolaire et encore moins de celles des futurs enseignant-e-s. Notre recherche porte sur deux populations de futurs enseignant-e-s en début, au milieu ou en fin de formation. Elles sont composées respectivement de 261 étudiant-e-s se destinant à l'enseignement primaire et de 212 étudiant-e-s se destinant à l'enseignement secondaire. La recherche vise à mettre en évidence l'intervention de leur pensée représentative dans leurs prises de position envers l'intégration scolaire. Nos résultats montrent que l'objectivation reste essentialiste et se focalise sur les prototypes de situations de handicap les plus médiatisés. Nos résultats font également fait apparaître la faiblesse du dispositif de formation tel que perçu les futurs enseignant-e-s. Quand bien même ont-ils conservé ou renforcé des attitudes favorables à l'intégration, ils quittent pour la plupart leur formation avec une appréhension renforcée à l'égard des situations de handicap ou de besoins éducatifs particuliers qu'ils s'attendent à rencontrer dans leur future pratique. Bien que la formation soit jugée insuffisante par les étudiant-e-s, elle oriente néanmoins favorablement leurs prises de position envers l'intégration des élèves concernés. En particulier, une plus grande pratique de stage, si modeste soit-elle, a un effet important sur ces prises de position par l'augmentation du sentiment de compétence et la perception d'assurance des futurs enseignant-e-s.
Resumo:
La première partie de cette étude est consacrée à l'étude des vestiges découverts entre 1990 et 1994 à Yverdon-les-Bains (VD) en quatre points de la rue des Philosophes (n°s 7, 13, 21 et 27). L'étude des secteurs fouillés permet de retracer l'histoire d'une zone périphérique de l'agglomération depuis la fin du IVe s. av. J.-C. jusqu'au haut Moyen Age, où une nécropole s'est développée sur trois des parcelles étudiées {cf. CAR 75). L'accès oriental de l'agglomération est barré dès la fin du IVe s. par une palissade peut-être associée à un fossé. Le secteur sud n'a pas livré de vestige contemporain de cet aménagement, mais a été fréquenté depuis le début du IIe s. av. notre ère. Par la suite, un réseau de fossés de petites dimensions a été mis en place, qui d'un point de vue topographique se situe en aval du cordon littoral III, dans une zone anciennement marécageuse. Une fonction drainante a ainsi été postulée pour ces aménagements, qui ont peut-être été réalisés en vue de la construction du rempart. Celui-ci a été dégagé sur trois des parcelles fouillées. Un niveau de démolition repéré au n° 7 de la rue des Philosophes indique qu'il se prolongeait probablement en direction du lac, de l'autre côté de la voie d'accès conduisant à Voppidum partiellement dégagée en 1982 .Le rempart d'Yverdon se rattache au groupe des remparts à poteaux frontaux (Pfostenschlitzmauer) caractérisé par un parement en pierres sèches interrompu à intervalles réguliers (en moyenne 1.40 m) par des pieux de grandes dimensions (section: 50/60 x 30/40 cm) qui étaient reliés à une seconde rangée de pieux, distante d'environ 4 m du front de l'ouvrage; une rampe située à l'arrière de ce dispositif devait assurer la stabilité de l'ensemble. L'excellente conservation de plusieurs dizaines de ces pieux a permis de dater de manière absolue la construction de l'ouvrage vers 80 av. J.-C. Le rempart yverdonnois présente une particularité technique inédite des plus intéressante du point de vue constructif : les pieux des deux rangées ne sont pas implantés verticalement comme cela est généralement le cas, mais de manière oblique. Ce mode opératoire présente un progrès important, car il améliore notablement le comportement statique de l'ouvrage tout en facilitant sa mise en oeuvre (étude du Prof. L. Pflug). La fortification est précédée, dans le secteur sud, par plusieurs aménagements en bois, dont une palissade construite quelques années avant le rempart lui-même et une série de pieux qui pourrait appartenir à une ligne de défense avancée. Trois fossés précèdent le rempart dans le secteur oriental. Le premier, situé à moins d'un mètre de la base de la fortification, est probablement antérieur à cette dernière. Hormis les structures à caractère défensif, plusieurs aménagements de La Tène finale ont été dégagés sur les différentes parcelles, dont une cabane semi-enterrée de plan rectangulaire au n° 7 de la rue des Philosophes. En raison de sa situation extra muros et de son plan, une vocation artisanale a été proposée pour ce bâtiment. Une tombe datée de La Tène D1 par ses offrandes a été découverte au nord du chantier des Philosophes 21 parmi un groupe de sépultures de la nécropole tardo-antique du Pré de la Cure. La transgression lacustre mise en évidence au Parc Piguet paraît également avoir affecté la partie orientale de l'oppidum. Cet événement est survenu avant la démolition de la fortification, qui est datée vers le milieu du Ier s. avant notre ère. Les vestiges du vicus d'époque romaine, dégagés uniquement sur de petites surfaces, comprennent plusieurs constructions en terre et bois, une cave et un bâtiment maçonnés ainsi que plusieurs puits. L'étude du mobilier associé aux aménagements les plus récents situe l'abandon de l'agglomération dans la seconde moitié du IIIe s. ap. J.-C. pour trois des parcelles fouillées, alors que la zone des Philosophes 27 était peut-être encore occupée au siècle suivant.Les fouilles ont livré un abondant mobilier dont la majeure partie remonte à La Tène finale. La céramique de cette époque a été classée en fonction de critères technologique, formel et esthétique précis afin de mettre en évidence des marqueurs significatifs en termes chronologiques. Six horizons principaux ont été distingués, qui s'échelonnent entre le IIe s. av. J.-C. et le début de l'époque tibérienne. On retiendra pour la fin de l'âge du Fer que la première partie de La Tène finale est caractérisée par un vaisselier comprenant une majorité de formes basses en pâte sombre fine, alors que la période suivante voit une nette augmentation des récipients en pâte grossière, dont la plupart sont des pots à cuire à large lèvre déversée. Le registre décoratif évolue également: certains motifs ne sont attestés que durant une période, alors que d'autres se distinguent uniquement par leur fréquence. D'un point de vue économique, Yverdon, à l'image des sites du Plateau suisse, se situe durant la première partie de La Tène finale en dehors des voies commerciales. Les produits méditerranéens sont en effet extrêmement rares durant cette période, alors que leur nombre augmente sensiblement vers la fin de l'âge du Fer. La seconde partie de cette étude est dévolue à l'étude du murus gallicus de Sermuz (Ph. Curdy) et à la comparaison des divers modes constructifs mis en oeuvre pour les fortifications de la région des Trois-Lacs. La partie conclusive récapitule de manière chronologique l'évolution des occupations à Yverdon-les-Bains depuis l'âge du Bronze jusqu'au haut Moyen Âge et propose d'intégrer les nouveaux résultats dans une perspective historique. Diverses hypothèses évoquent les raisons qui conduirent les Yverdonnois à se retrancher vers 80 av. J.-C. et les relations qu'ils entretenaient avec le site voisin de Sermuz. Pour terminer, la fonction de ce dernier est discutée dans ce cadre, notamment l'hypothèse d'une occupation du territoire helvète par des troupes romaines antérieure à l'Alpenfeldzug .
Resumo:
«Quel est l'âge de cette trace digitale?» Cette question est relativement souvent soulevée au tribunal ou lors d'investigations, lorsque la personne suspectée admet avoir laissé ses empreintes digitales sur une scène de crime mais prétend l'avoir fait à un autre moment que celui du crime et pour une raison innocente. Toutefois, aucune réponse ne peut actuellement être donnée à cette question, puisqu'aucune méthodologie n'est pour l'heure validée et acceptée par l'ensemble de la communauté forensique. Néanmoins, l'inventaire de cas américains conduit dans cette recherche a montré que les experts fournissent tout de même des témoignages au tribunal concernant l'âge de traces digitales, même si ceux-‐ci sont majoritairement basés sur des paramètres subjectifs et mal documentés. Il a été relativement aisé d'accéder à des cas américains détaillés, ce qui explique le choix de l'exemple. Toutefois, la problématique de la datation des traces digitales est rencontrée dans le monde entier, et le manque de consensus actuel dans les réponses données souligne la nécessité d'effectuer des études sur le sujet. Le but de la présente recherche est donc d'évaluer la possibilité de développer une méthode de datation objective des traces digitales. Comme les questions entourant la mise au point d'une telle procédure ne sont pas nouvelles, différentes tentatives ont déjà été décrites dans la littérature. Cette recherche les a étudiées de manière critique, et souligne que la plupart des méthodologies reportées souffrent de limitations prévenant leur utilisation pratique. Néanmoins, certaines approches basées sur l'évolution dans le temps de composés intrinsèques aux résidus papillaires se sont montrées prometteuses. Ainsi, un recensement détaillé de la littérature a été conduit afin d'identifier les composés présents dans les traces digitales et les techniques analytiques capables de les détecter. Le choix a été fait de se concentrer sur les composés sébacés détectés par chromatographie gazeuse couplée à la spectrométrie de masse (GC/MS) ou par spectroscopie infrarouge à transformée de Fourier. Des analyses GC/MS ont été menées afin de caractériser la variabilité initiale de lipides cibles au sein des traces digitales d'un même donneur (intra-‐variabilité) et entre les traces digitales de donneurs différents (inter-‐variabilité). Ainsi, plusieurs molécules ont été identifiées et quantifiées pour la première fois dans les résidus papillaires. De plus, il a été déterminé que l'intra-‐variabilité des résidus était significativement plus basse que l'inter-‐variabilité, mais que ces deux types de variabilité pouvaient être réduits en utilisant différents pré-‐ traitements statistiques s'inspirant du domaine du profilage de produits stupéfiants. Il a également été possible de proposer un modèle objectif de classification des donneurs permettant de les regrouper dans deux classes principales en se basant sur la composition initiale de leurs traces digitales. Ces classes correspondent à ce qui est actuellement appelé de manière relativement subjective des « bons » ou « mauvais » donneurs. Le potentiel d'un tel modèle est élevé dans le domaine de la recherche en traces digitales, puisqu'il permet de sélectionner des donneurs représentatifs selon les composés d'intérêt. En utilisant la GC/MS et la FTIR, une étude détaillée a été conduite sur les effets de différents facteurs d'influence sur la composition initiale et le vieillissement de molécules lipidiques au sein des traces digitales. Il a ainsi été déterminé que des modèles univariés et multivariés pouvaient être construits pour décrire le vieillissement des composés cibles (transformés en paramètres de vieillissement par pré-‐traitement), mais que certains facteurs d'influence affectaient ces modèles plus sérieusement que d'autres. En effet, le donneur, le substrat et l'application de techniques de révélation semblent empêcher la construction de modèles reproductibles. Les autres facteurs testés (moment de déposition, pression, température et illumination) influencent également les résidus et leur vieillissement, mais des modèles combinant différentes valeurs de ces facteurs ont tout de même prouvé leur robustesse dans des situations bien définies. De plus, des traces digitales-‐tests ont été analysées par GC/MS afin d'être datées en utilisant certains des modèles construits. Il s'est avéré que des estimations correctes étaient obtenues pour plus de 60 % des traces-‐tests datées, et jusqu'à 100% lorsque les conditions de stockage étaient connues. Ces résultats sont intéressants mais il est impératif de conduire des recherches supplémentaires afin d'évaluer les possibilités d'application de ces modèles dans des cas réels. Dans une perspective plus fondamentale, une étude pilote a également été effectuée sur l'utilisation de la spectroscopie infrarouge combinée à l'imagerie chimique (FTIR-‐CI) afin d'obtenir des informations quant à la composition et au vieillissement des traces digitales. Plus précisément, la capacité de cette technique à mettre en évidence le vieillissement et l'effet de certains facteurs d'influence sur de larges zones de traces digitales a été investiguée. Cette information a ensuite été comparée avec celle obtenue par les spectres FTIR simples. Il en a ainsi résulté que la FTIR-‐CI était un outil puissant, mais que son utilisation dans l'étude des résidus papillaires à des buts forensiques avait des limites. En effet, dans cette recherche, cette technique n'a pas permis d'obtenir des informations supplémentaires par rapport aux spectres FTIR traditionnels et a également montré des désavantages majeurs, à savoir de longs temps d'analyse et de traitement, particulièrement lorsque de larges zones de traces digitales doivent être couvertes. Finalement, les résultats obtenus dans ce travail ont permis la proposition et discussion d'une approche pragmatique afin d'aborder les questions de datation des traces digitales. Cette approche permet ainsi d'identifier quel type d'information le scientifique serait capable d'apporter aux enquêteurs et/ou au tribunal à l'heure actuelle. De plus, le canevas proposé décrit également les différentes étapes itératives de développement qui devraient être suivies par la recherche afin de parvenir à la validation d'une méthodologie de datation des traces digitales objective, dont les capacités et limites sont connues et documentées. -- "How old is this fingermark?" This question is relatively often raised in trials when suspects admit that they have left their fingermarks on a crime scene but allege that the contact occurred at a time different to that of the crime and for legitimate reasons. However, no answer can be given to this question so far, because no fingermark dating methodology has been validated and accepted by the whole forensic community. Nevertheless, the review of past American cases highlighted that experts actually gave/give testimonies in courts about the age of fingermarks, even if mostly based on subjective and badly documented parameters. It was relatively easy to access fully described American cases, thus explaining the origin of the given examples. However, fingermark dating issues are encountered worldwide, and the lack of consensus among the given answers highlights the necessity to conduct research on the subject. The present work thus aims at studying the possibility to develop an objective fingermark dating method. As the questions surrounding the development of dating procedures are not new, different attempts were already described in the literature. This research proposes a critical review of these attempts and highlights that most of the reported methodologies still suffer from limitations preventing their use in actual practice. Nevertheless, some approaches based on the evolution of intrinsic compounds detected in fingermark residue over time appear to be promising. Thus, an exhaustive review of the literature was conducted in order to identify the compounds available in the fingermark residue and the analytical techniques capable of analysing them. It was chosen to concentrate on sebaceous compounds analysed using gas chromatography coupled with mass spectrometry (GC/MS) or Fourier transform infrared spectroscopy (FTIR). GC/MS analyses were conducted in order to characterize the initial variability of target lipids among fresh fingermarks of the same donor (intra-‐variability) and between fingermarks of different donors (inter-‐variability). As a result, many molecules were identified and quantified for the first time in fingermark residue. Furthermore, it was determined that the intra-‐variability of the fingermark residue was significantly lower than the inter-‐variability, but that it was possible to reduce both kind of variability using different statistical pre-‐ treatments inspired from the drug profiling area. It was also possible to propose an objective donor classification model allowing the grouping of donors in two main classes based on their initial lipid composition. These classes correspond to what is relatively subjectively called "good" or "bad" donors. The potential of such a model is high for the fingermark research field, as it allows the selection of representative donors based on compounds of interest. Using GC/MS and FTIR, an in-‐depth study of the effects of different influence factors on the initial composition and aging of target lipid molecules found in fingermark residue was conducted. It was determined that univariate and multivariate models could be build to describe the aging of target compounds (transformed in aging parameters through pre-‐ processing techniques), but that some influence factors were affecting these models more than others. In fact, the donor, the substrate and the application of enhancement techniques seemed to hinder the construction of reproducible models. The other tested factors (deposition moment, pressure, temperature and illumination) also affected the residue and their aging, but models combining different values of these factors still proved to be robust. Furthermore, test-‐fingermarks were analysed with GC/MS in order to be dated using some of the generated models. It turned out that correct estimations were obtained for 60% of the dated test-‐fingermarks and until 100% when the storage conditions were known. These results are interesting but further research should be conducted to evaluate if these models could be used in uncontrolled casework conditions. In a more fundamental perspective, a pilot study was also conducted on the use of infrared spectroscopy combined with chemical imaging in order to gain information about the fingermark composition and aging. More precisely, its ability to highlight influence factors and aging effects over large areas of fingermarks was investigated. This information was then compared with that given by individual FTIR spectra. It was concluded that while FTIR-‐ CI is a powerful tool, its use to study natural fingermark residue for forensic purposes has to be carefully considered. In fact, in this study, this technique does not yield more information on residue distribution than traditional FTIR spectra and also suffers from major drawbacks, such as long analysis and processing time, particularly when large fingermark areas need to be covered. Finally, the results obtained in this research allowed the proposition and discussion of a formal and pragmatic framework to approach the fingermark dating questions. It allows identifying which type of information the scientist would be able to bring so far to investigators and/or Justice. Furthermore, this proposed framework also describes the different iterative development steps that the research should follow in order to achieve the validation of an objective fingermark dating methodology, whose capacities and limits are well known and properly documented.
Resumo:
La prise en charge et le suivi de personnes en situation de handicap mental souffrant de troubles psychiques et se trouvant donc à l'interface des domaines socio:éducatif et psychiatrique, constituent des défis complexes en matière de collaboration interprofessionnelle. Dans le canton de Vaud, les acteurs concernés par ce problème s'efforcent depuis de nombreuses années de créer des réseaux pluridisciplinaires visant un meilleur échange entre professionnels et le développement de compétences et de connaissances permettant d'améliorer le bien:être des bénéficiaires. Ce travail se propose ainsi d'étudier et de questionner ces modalités de travail dans une perspective socioculturelle (Vygotski, 1934/1997), afin d'en comprendre le fonctionnement, d'en éclairer les mécanismes et de fournir des pistes de réflexion aux professionnels. Il repose sur un travail de terrain mené auprès des membres du Dispositif de Collaboration Psychiatrie Handicap Mental (DCPHM) du Département de psychiatrie du CHUV, dont la mission principale est de faciliter la collaboration entre les institutions socio:éducatives et psychiatriques spécialisées dans le suivi des personnes en situation de handicap mental et souffrant de troubles psychiques. Le travail empirique est basé sur une approche qualitative et compréhensive des interactions sociales, et procède par une étude de terrain approfondie. Les données recueillies sont variées : notes de terrain et récolte de documentation, enregistrement de réunions d'équipe au sein du DCPHM et de réunions de réseau, et entretiens de différents types. L'analyse montre que le travail de collaboration qui incombe à l'équipe est constitué d'obstacles qui sont autant d'occasions de développement professionnel et de construction identitaire. Les résultats mettent en lumière des mécanismes discursifs de catégorisation concourant à la fois à la construction des patients comme objets d'activité, et à la construction d'une place qui légitime les interventions de l'équipe dans le paysage socio:éducatif et psychiatrique vaudois et la met au centre de l'arène professionnelle. -- Care and follow:up for people with mental disabilities suffering from psychological disorders : therefore at the interface between the socio:educational and psychiatric fields : represent complex challenges in terms of interprofessional collaboration. In the canton of Vaud, the caregivers involved in this issue have been trying for years to build multidisciplinary networks in order to better exchange between professionals and develop skills and knowledge to improve the recipients' well:being. This work thus proposes to study and question these working methods in a sociocultural perspective (Vygotski, 1934/1997) so as to understand how they operate, highlight inherent mechanisms and provide actionable insights to the professionals. It is based on fieldwork conducted among members of the Dispositif de Collaboration Psychiatrie Handicap Mental (DCPHM), of the Psychiatry Department at the CHUV University Hospital in Lausanne, whose main mission is to facilitate collaboration between the socio:educational and psychiatric institutions specialising in monitoring people presenting with both mental handicap and psychiatric disorder. The empirical work is based on a qualitative and comprehensive approach to social interactions, and conducted based on an in:depth field study. The data collected are varied - field notes and documentation collection, recordings of team meetings within the DCPHM and network meetings, and various types of interviews. The analysis shows that the collaborative work that befalls the team consists of obstacles, all of which provide opportunities for professional development and identity construction. The results highlight discursive strategies of categorisation which contribute both to the construction of the patients as objects of activity and to building a position that legitimates the team's interventions in the socio: educational and psychiatric landscape of canton Vaud and puts it in the centre of the professional arena.
Resumo:
La construction de la métropole Aix Marseille Provence (AMP) vise à améliorer la cohérence et la complémentarité de ses territoires. Promouvoir la métropole ne doit pas seulement considérer les communes indépendamment les unes des autres, mais les aborder comme un ensemble constituant bien davantage que la somme de ses parties grâce aux synergies entre les différents acteurs publics et privés. L'attractivité internationale est un des aspects de la promotion de la métropole qui profiterait de cette meilleure cohésion. L'étude vise à évaluer le positionnement international et les forces et faiblesses de la cohérence de la métropole pour son rayonnement dans les réseaux des entreprises multinationales.
Resumo:
Cet article esquisse la situation actuelle des relations entre les sciences sociales et les neurosciences, dans une perspective épistémologique, historique et critique. Il aborde dans un premier temps les conditions d'émergence, le succès et les effets contrastés de la cérébralisation du sujet dans les sciences humaines et sociales, partagées entre neuro-scepticisme et neuro-optimisme. Dans un second temps, les auteurs proposent de déplacer le point de vue de la question classique du déterminisme biologique vers celle de la performativité sociale des sciences du cerveau. Ils analysent notamment la construction expérimentale et parfois problématique des inférences neuro-sociales qui sont au coeur des explications cérébralistes des comportements des sujets sociaux. L'article conclut sur une discussion de l'éventuelle complémentarité entre neurosciences et sciences sociales et humaines.
Resumo:
Situé au croisement de l'histoire de la télévision et de celles des expositions, cet article vise à étudier la construction politique et symbolique de la télévision dans l'entre-deux-guerres en Allemagne, en Grande-Bretagne et aux États-Unis. À travers l'étude des présentations organisées en lien avec l'ouverture des services publics à Berlin en 1935, à Londres en 1936 et à New York en 1939, il examine comment exposer la télévision participe à la définition nationale du média dans un contexte de compétitions et d'échanges transnationaux.
Resumo:
L'amitié et l'affinité intellectuelle qui caractérisèrent les rapports de Hobbes avec Gassendi forment un tissu ténu dont il n'est point aisé de démêler la trame. Aux côtés de points de convergence clairement définis, telle la commune aversion envers le dualisme et l'innéisme cartésiens, et par-delà des divergences non moins nettes dans leurs orientations philosophiques particulières, le sens des parcours maintes fois parallèles doit encore être éclairé de façon circonstanciée. Le terrain privilégié sur lequel élever une confrontation étroite entre deux auteurs est sans doute la construction d'une psychologie profondément marquée par des prémisses empiriques et dont l'orientation vise à établir une relation très étroite entre les processus de la perception, du désir (appetitus) et de la volonté avec ce qui les détermine matériellement et mécaniquement. On peut même affirmer que les écrits de Gassendi rédigés au tout début des années 1640 définissent une série d'hypothèses innovatrices sur lesquelles s'inscrit une certaine convergence avec les élaborations de Hobbes à elles contemporaines. Sous ce profil, le groupe de textes remontant aux années 1640-41, et où le philosophe d'Aix s'interroge sur la nature des phénomènes lumineux, est emblématique. L'explication du comportement des corps lumineux en terme de systole et de diastole, l'interprétation de la propagation de la lumière s'inspirant de la pure actualité cinématique (en polémique ouverte et explicite envers les thèses de la Dioptrique de Descartes sur la luminosité comme simple inclinaison au mouvement), le vacuisme (qui est propre à Gassendi, servant justement à rendre compte des phénomènes d'expansion et de contraction des sources lumineuses et qui, à cette époque, n'était pas encore exclu par Hobbes), la représentation, enfin, tout à fait matérielle et mécanique des phénomènes d'irradiation, voilà autant d'aspects de la recherche de Gassendi qui peuvent facilement être confrontés aux écrits de Hobbes.