571 resultados para swd: Virtuelle Realität
Resumo:
Magdeburg, Univ., Fak. für Informatik, Diss., 2009
Resumo:
Magdeburg, Univ., Med. Fak., Diss., 2012
Resumo:
Magdeburg, Univ., Fak. für Informatik, Diss., 2012
Resumo:
Zu Beginn werden Untersuchungen durchgeführt, die sich mit den aktuell eingesetzten Softwareprüfverfahren und der virtuellen Inbetriebnahme befassen. Die verschiedenen Verfahren werden im Einzelnen beschrieben und in einem direkten Vergleich gegenübergestellt. Das Ziel dieser Untersuchung ist es, die Vorteile der virtuellen Inbetriebnahme gegenüber den bisherigen Prüfmethoden aufzuzeigen. Die anschließende Auswahl der Anlagenkomponenten erfolgt durch eine Analyse der verschiedenen Antriebssysteme und einem Vergleich von Simulationselementen der Abbildungssoftware. Die ausgewählten Komponenten werden darauffolgend mit der WinMOD-Simulationssoftware abgebildet. Dazu wird die Handhabung der Software sowie die einzelnen Schritte bei der Funktionsabbildung detailliert beschrieben und an einem Beispiel umgesetzt. Abschließend wird die virtuelle Inbetriebnahme eines einzelnen Antriebssystems untersucht. Diese beschreibt den Aufbau der Simulationsumgebung, die Koppelung des Steuerprogramms sowie die Überprüfung der Steuerungssoftware in Form einer Inbetriebnahme. Die Ergebnisse der Teilaufgaben werden am Ende zusammengefasst und es wird ein Ausblick gegeben, der sich mit weiteren Untersuchungen im Bereich der virtuellen Inbetriebnahme von Steuerungsprogrammen bei der GPA befasst.
Resumo:
Universität Magdeburg, Univ., Dissertation, 2016
Resumo:
(Résumé de l'ouvrage) Viele Menschen sind heute auf der Suche nach Sinn und Orientierung in einer Gesellschaft, die geprägt ist von Säkularisierung und Individualisierung. Die kirchlichen Glaubenssysteme scheinen ihre bindende Kraft verloren zu haben. Sie werden zunehmend von individuellen Wegen und kleinen Weggemeinschaften abgelöst. Der vorliegende Sammelband reflektiert diesen Wandel aus den Blickwinkeln der Wissenschaft und der spirituellen Praxis. Spiritualität und Wissenschaft sind zwei unterschiedliche Ansätze, die Welt zu erfahren und zu erklären. Die gegenseitige Skepsis macht jedoch den Dialog schwierig. Das Projekt "Spiritualität und Wissenschaft" hat Sachverständige beider Bereiche zum Gespräch zusammengeführt: In ihren Beiträgen wagen Manager, Soziologen, Theologinnen, Philosophen, Mediziner, Mönche und spirituelle Lehrerinnen Definitionen und berichten über ihre Untersuchungen und Erfahrungen. Indem sie die Beziehungen zwischen Spiritualität und Religion, Medizin, Wirtschaft und Wissenschaft ausleuchten, skizzieren sie ein differenziertes Bild der beiden Wirklichkeitsbeschreibungen und ihres Wechselspiels bei der Erfassung der "Realität". Der Band beruht auf einer gleichnamigen Veranstaltungsreihe des Forums für Universität und Gesellschaft der Universität Bern. Er wird ergänzt durch eine CD mit einer Sendung von Radio "chrüz u quer" zu den projektbegleitenden Workshops über spirituelle Wege.
Resumo:
Die Trennung zwischen den verschiedenen Fachdisziplinen wurde in den letzten Jahren in verstärktem Maße befragt und hinsichtlich durchlässiger Stellen untersucht, die einen über monodisziplinäre Betrachtungen nicht erreichbaren Erkenntnisgewinn versprechen. Aus diesem Interesse an einer intensivierten interdisziplinären Zusammenarbeit ergeben sich nicht zuletzt auch für Geschichte und Kunstgeschichte neue Möglichkeiten, wie die jeweils eigenen Fachinhalte - mal von einer anderen Seite aus - betrachtet werden können und so zu ertragreichen neuen Themen und Forschungsfeldern führen. Das vorliegende Buch untersucht diese Erweiterungsbewegungen und fragt nach dem »Bild« (im weitesten Sinne) als historische, für das gesamtkulturelle Gedächtnis aufschlussreiche »Quelle« und als »Zeugnis«. Das breitgefächerte Spektrum der versammelten Themen von Autoren und Autorinnen aus unterschiedlichen geisteswissenschaftlichen Disziplinen reicht hierbei von theoretisch-methodischen Fragestellungen, die für den Diskurs und die Kanonbildung relevant sind, bis hin zu Beiträgen, die das Thema der Publikation spezifisch im Kontext der Gattungen Malerei, Grafik oder Fotografie beleuchten. Doch auch audiovisuelle bewegte oder virtuelle, zum Jetzt-Zeitpunkt bereits verflüchtigte Bilder finden in Form von neuen Medien, Film und Kulturfernsehen Beachtung, da auch sie zum zentralen Bestandteil und Dokument einer kollektiven Erinnerung werden können. Mit Beiträgen von: Juerg Albrecht, Nadja Elia-Borer, Pietro Giovannoli, Daniel Hornuff, Kornelia Imesch, Philippe Kaenel, Fabian Probst, Caroline Recher, Severin Ruegg, Philipp Stoellger, Jakob Tanner, Mélanie Laurance Tanner, Carsten-Peter Warnke, Anja Zimmermann.
Resumo:
Abstract : The occupational health risk involved with handling nanoparticles is the probability that a worker will experience an adverse health effect: this is calculated as a function of the worker's exposure relative to the potential biological hazard of the material. Addressing the risks of nanoparticles requires therefore knowledge on occupational exposure and the release of nanoparticles into the environment as well as toxicological data. However, information on exposure is currently not systematically collected; therefore this risk assessment lacks quantitative data. This thesis aimed at, first creating the fundamental data necessary for a quantitative assessment and, second, evaluating methods to measure the occupational nanoparticle exposure. The first goal was to determine what is being used where in Swiss industries. This was followed by an evaluation of the adequacy of existing measurement methods to assess workplace nanopaiticle exposure to complex size distributions and concentration gradients. The study was conceived as a series of methodological evaluations aimed at better understanding nanoparticle measurement devices and methods. lt focused on inhalation exposure to airborne particles, as respiration is considered to be the most important entrance pathway for nanoparticles in the body in terms of risk. The targeted survey (pilot study) was conducted as a feasibility study for a later nationwide survey on the handling of nanoparticles and the applications of specific protection means in industry. The study consisted of targeted phone interviews with health and safety officers of Swiss companies that were believed to use or produce nanoparticles. This was followed by a representative survey on the level of nanoparticle usage in Switzerland. lt was designed based on the results of the pilot study. The study was conducted among a representative selection of clients of the Swiss National Accident Insurance Fund (SUVA), covering about 85% of Swiss production companies. The third part of this thesis focused on the methods to measure nanoparticles. Several pre- studies were conducted studying the limits of commonly used measurement devices in the presence of nanoparticle agglomerates, This focus was chosen, because several discussions with users and producers of the measurement devices raised questions about their accuracy measuring nanoparticle agglomerates and because, at the same time, the two survey studies revealed that such powders are frequently used in industry. The first preparatory experiment focused on the accuracy of the scanning mobility particle sizer (SMPS), which showed an improbable size distribution when measuring powders of nanoparticle agglomerates. Furthermore, the thesis includes a series of smaller experiments that took a closer look at problems encountered with other measurement devices in the presence of nanoparticle agglomerates: condensation particle counters (CPC), portable aerosol spectrometer (PAS) a device to estimate the aerodynamic diameter, as well as diffusion size classifiers. Some initial feasibility tests for the efficiency of filter based sampling and subsequent counting of carbon nanotubes (CNT) were conducted last. The pilot study provided a detailed picture of the types and amounts of nanoparticles used and the knowledge of the health and safety experts in the companies. Considerable maximal quantities (> l'000 kg/year per company) of Ag, Al-Ox, Fe-Ox, SiO2, TiO2, and ZnO (mainly first generation particles) were declared by the contacted Swiss companies, The median quantity of handled nanoparticles, however, was 100 kg/year. The representative survey was conducted by contacting by post mail a representative selection of l '626 SUVA-clients (Swiss Accident Insurance Fund). It allowed estimation of the number of companies and workers dealing with nanoparticles in Switzerland. The extrapolation from the surveyed companies to all companies of the Swiss production sector suggested that l'309 workers (95%-confidence interval l'073 to l'545) of the Swiss production sector are potentially exposed to nanoparticles in 586 companies (145 to l'027). These numbers correspond to 0.08% (0.06% to 0.09%) of all workers and to 0.6% (0.2% to 1.1%) of companies in the Swiss production sector. To measure airborne concentrations of sub micrometre-sized particles, a few well known methods exist. However, it was unclear how well the different instruments perform in the presence of the often quite large agglomerates of nanostructured materials. The evaluation of devices and methods focused on nanoparticle agglomerate powders. lt allowed the identification of the following potential sources of inaccurate measurements at workplaces with considerable high concentrations of airborne agglomerates: - A standard SMPS showed bi-modal particle size distributions when measuring large nanoparticle agglomerates. - Differences in the range of a factor of a thousand were shown between diffusion size classifiers and CPC/SMPS. - The comparison between CPC/SMPS and portable aerosol Spectrometer (PAS) was much better, but depending on the concentration, size or type of the powders measured, the differences were still of a high order of magnitude - Specific difficulties and uncertainties in the assessment of workplaces were identified: the background particles can interact with particles created by a process, which make the handling of background concentration difficult. - Electric motors produce high numbers of nanoparticles and confound the measurement of the process-related exposure. Conclusion: The surveys showed that nanoparticles applications exist in many industrial sectors in Switzerland and that some companies already use high quantities of them. The representative survey demonstrated a low prevalence of nanoparticle usage in most branches of the Swiss industry and led to the conclusion that the introduction of applications using nanoparticles (especially outside industrial chemistry) is only beginning. Even though the number of potentially exposed workers was reportedly rather small, it nevertheless underscores the need for exposure assessments. Understanding exposure and how to measure it correctly is very important because the potential health effects of nanornaterials are not yet fully understood. The evaluation showed that many devices and methods of measuring nanoparticles need to be validated for nanoparticles agglomerates before large exposure assessment studies can begin. Zusammenfassung : Das Gesundheitsrisiko von Nanopartikel am Arbeitsplatz ist die Wahrscheinlichkeit dass ein Arbeitnehmer einen möglichen Gesundheitsschaden erleidet wenn er diesem Stoff ausgesetzt ist: sie wird gewöhnlich als Produkt von Schaden mal Exposition gerechnet. Für eine gründliche Abklärung möglicher Risiken von Nanomaterialien müssen also auf der einen Seite Informationen über die Freisetzung von solchen Materialien in die Umwelt vorhanden sein und auf der anderen Seite solche über die Exposition von Arbeitnehmenden. Viele dieser Informationen werden heute noch nicht systematisch gesarnmelt und felilen daher für Risikoanalysen, Die Doktorarbeit hatte als Ziel, die Grundlagen zu schaffen für eine quantitative Schatzung der Exposition gegenüber Nanopartikel am Arbeitsplatz und die Methoden zu evaluieren die zur Messung einer solchen Exposition nötig sind. Die Studie sollte untersuchen, in welchem Ausmass Nanopartikel bereits in der Schweizer Industrie eingesetzt werden, wie viele Arbeitnehrner damit potentiel] in Kontakt komrrien ob die Messtechnologie für die nötigen Arbeitsplatzbelastungsmessungen bereits genügt, Die Studie folcussierte dabei auf Exposition gegenüber luftgetragenen Partikel, weil die Atmung als Haupteintrittspforte iïlr Partikel in den Körper angesehen wird. Die Doktorarbeit besteht baut auf drei Phasen auf eine qualitative Umfrage (Pilotstudie), eine repräsentative, schweizerische Umfrage und mehrere technische Stndien welche dem spezitischen Verständnis der Mëglichkeiten und Grenzen einzelner Messgeräte und - teclmikeri dienen. Die qualitative Telephonumfrage wurde durchgeführt als Vorstudie zu einer nationalen und repräsentativen Umfrage in der Schweizer Industrie. Sie zielte auf Informationen ab zum Vorkommen von Nanopartikeln, und den angewendeten Schutzmassnahmen. Die Studie bestand aus gezielten Telefoninterviews mit Arbeit- und Gesundheitsfachpersonen von Schweizer Unternehmen. Die Untemehmen wurden aufgrund von offentlich zugànglichen lnformationen ausgewählt die darauf hinwiesen, dass sie mit Nanopartikeln umgehen. Der zweite Teil der Dolctorarbeit war die repräsentative Studie zur Evalniernng der Verbreitnng von Nanopaitikelanwendungen in der Schweizer lndustrie. Die Studie baute auf lnformationen der Pilotstudie auf und wurde mit einer repräsentativen Selektion von Firmen der Schweizerischen Unfall Versicherungsanstalt (SUVA) durchgeüihxt. Die Mehrheit der Schweizerischen Unternehmen im lndustrieselctor wurde damit abgedeckt. Der dritte Teil der Doktorarbeit fokussierte auf die Methodik zur Messung von Nanopartikeln. Mehrere Vorstudien wurden dnrchgefîihrt, um die Grenzen von oft eingesetzten Nanopartikelmessgeräten auszuloten, wenn sie grösseren Mengen von Nanopartikel Agglomeraten ausgesetzt messen sollen. Dieser F okns wurde ans zwei Gründen gewählt: weil mehrere Dislcussionen rnit Anwendem und auch dem Produzent der Messgeràte dort eine Schwachstelle vermuten liessen, welche Zweifel an der Genauigkeit der Messgeräte aufkommen liessen und weil in den zwei Umfragestudien ein häufiges Vorkommen von solchen Nanopartikel-Agglomeraten aufgezeigt wurde. i Als erstes widmete sich eine Vorstndie der Genauigkeit des Scanning Mobility Particle Sizer (SMPS). Dieses Messgerät zeigte in Präsenz von Nanopartikel Agglorneraten unsinnige bimodale Partikelgrössenverteilung an. Eine Serie von kurzen Experimenten folgte, welche sich auf andere Messgeräte und deren Probleme beim Messen von Nanopartikel-Agglomeraten konzentrierten. Der Condensation Particle Counter (CPC), der portable aerosol spectrometer (PAS), ein Gerät zur Schàtzung des aerodynamischen Durchniessers von Teilchen, sowie der Diffusion Size Classifier wurden getestet. Einige erste Machbarkeitstests zur Ermittlnng der Effizienz von tilterbasierter Messung von luftgetragenen Carbon Nanotubes (CNT) wnrden als letztes durchgeiührt. Die Pilotstudie hat ein detailliiertes Bild der Typen und Mengen von genutzten Nanopartikel in Schweizer Unternehmen geliefert, und hat den Stand des Wissens der interviewten Gesundheitsschntz und Sicherheitsfachleute aufgezeigt. Folgende Typen von Nanopaitikeln wurden von den kontaktierten Firmen als Maximalmengen angegeben (> 1'000 kg pro Jahr / Unternehrnen): Ag, Al-Ox, Fe-Ox, SiO2, TiO2, und ZnO (hauptsächlich Nanopartikel der ersten Generation). Die Quantitäten von eingesetzten Nanopartikeln waren stark verschieden mit einem ein Median von 100 kg pro Jahr. ln der quantitativen Fragebogenstudie wurden l'626 Unternehmen brieflich kontaktiert; allesamt Klienten der Schweizerischen Unfallversicherringsanstalt (SUVA). Die Resultate der Umfrage erlaubten eine Abschätzung der Anzahl von Unternehmen und Arbeiter, welche Nanopartikel in der Schweiz anwenden. Die Hochrechnung auf den Schweizer lndnstriesektor hat folgendes Bild ergeben: ln 586 Unternehmen (95% Vertrauensintervallz 145 bis 1'027 Unternehmen) sind 1'309 Arbeiter potentiell gegenüber Nanopartikel exponiert (95%-Vl: l'073 bis l'545). Diese Zahlen stehen für 0.6% der Schweizer Unternehmen (95%-Vl: 0.2% bis 1.1%) und 0.08% der Arbeiternehmerschaft (95%-V1: 0.06% bis 0.09%). Es gibt einige gut etablierte Technologien um die Luftkonzentration von Submikrometerpartikel zu messen. Es besteht jedoch Zweifel daran, inwiefern sich diese Technologien auch für die Messurrg von künstlich hergestellten Nanopartikeln verwenden lassen. Aus diesem Grund folcussierten die vorbereitenden Studien für die Arbeitsplatzbeurteilnngen auf die Messung von Pulverri, welche Nan0partike1-Agg10merate enthalten. Sie erlaubten die ldentifikation folgender rnöglicher Quellen von fehlerhaften Messungen an Arbeitsplätzen mit erhöhter Luft-K0nzentrati0n von Nanopartikel Agglomeratenz - Ein Standard SMPS zeigte eine unglaubwürdige bimodale Partikelgrössenverteilung wenn er grössere Nan0par'til<e1Agg10merate gemessen hat. - Grosse Unterschiede im Bereich von Faktor tausend wurden festgestellt zwischen einem Diffusion Size Classiîier und einigen CPC (beziehungsweise dem SMPS). - Die Unterschiede zwischen CPC/SMPS und dem PAS waren geringer, aber abhängig von Grosse oder Typ des gemessenen Pulvers waren sie dennoch in der Grössenordnung von einer guten Grössenordnung. - Spezifische Schwierigkeiten und Unsicherheiten im Bereich von Arbeitsplatzmessungen wurden identitiziert: Hintergrundpartikel können mit Partikeln interagieren die während einem Arbeitsprozess freigesetzt werden. Solche Interaktionen erschweren eine korrekte Einbettung der Hintergrunds-Partikel-Konzentration in die Messdaten. - Elektromotoren produzieren grosse Mengen von Nanopartikeln und können so die Messung der prozessbezogenen Exposition stören. Fazit: Die Umfragen zeigten, dass Nanopartikel bereits Realitàt sind in der Schweizer Industrie und dass einige Unternehmen bereits grosse Mengen davon einsetzen. Die repräsentative Umfrage hat diese explosive Nachricht jedoch etwas moderiert, indem sie aufgezeigt hat, dass die Zahl der Unternehmen in der gesamtschweizerischen Industrie relativ gering ist. In den meisten Branchen (vor allem ausserhalb der Chemischen Industrie) wurden wenig oder keine Anwendungen gefunden, was schliessen last, dass die Einführung dieser neuen Technologie erst am Anfang einer Entwicklung steht. Auch wenn die Zahl der potentiell exponierten Arbeiter immer noch relativ gering ist, so unterstreicht die Studie dennoch die Notwendigkeit von Expositionsmessungen an diesen Arbeitsplätzen. Kenntnisse um die Exposition und das Wissen, wie solche Exposition korrekt zu messen, sind sehr wichtig, vor allem weil die möglichen Auswirkungen auf die Gesundheit noch nicht völlig verstanden sind. Die Evaluation einiger Geräte und Methoden zeigte jedoch, dass hier noch Nachholbedarf herrscht. Bevor grössere Mess-Studien durgefîihrt werden können, müssen die Geräte und Methodem für den Einsatz mit Nanopartikel-Agglomeraten validiert werden.
Resumo:
Games are powerful and engaging. On average, one billion people spend at least 1 hour a day playing computer and videogames. This is even more true with the younger generations. Our students have become the < digital natives >, the < gamers >, the < virtual generation >. Research shows that those who are most at risk for failure in the traditional classroom setting, also spend more time than their counterparts, using video games. They might strive, given a different learning environment. Educators have the responsibility to align their teaching style to these younger generation learning styles. However, many academics resist the use of computer-assisted learning that has been "created elsewhere". This can be extrapolated to game-based teaching: even if educational games were more widely authored, their adoption would still be limited to the educators who feel a match between the authored games and their own beliefs and practices. Consequently, game-based teaching would be much more widespread if teachers could develop their own games, or at least customize them. Yet, the development and customization of teaching games are complex and costly. This research uses a design science methodology, leveraging gamification techniques, active and cooperative learning theories, as well as immersive sandbox 3D virtual worlds, to develop a method which allows management instructors to transform any off-the-shelf case study into an engaging collaborative gamified experience. This method is applied to marketing case studies, and uses the sandbox virtual world of Second Life. -- Les jeux sont puissants et motivants, En moyenne, un milliard de personnes passent au moins 1 heure par jour jouer à des jeux vidéo sur ordinateur. Ceci se vérifie encore plus avec les jeunes générations, Nos étudiants sont nés à l'ère du numérique, certains les appellent des < gamers >, d'autres la < génération virtuelle >. Les études montrent que les élèves qui se trouvent en échec scolaire dans les salles de classes traditionnelles, passent aussi plus de temps que leurs homologues à jouer à des jeux vidéo. lls pourraient potentiellement briller, si on leur proposait un autre environnement d'apprentissage. Les enseignants ont la responsabilité d'adapter leur style d'enseignement aux styles d'apprentissage de ces jeunes générations. Toutefois, de nombreux professeurs résistent lorsqu'il s'agit d'utiliser des contenus d'apprentissage assisté par ordinateur, développés par d'autres. Ceci peut être extrapolé à l'enseignement par les jeux : même si un plus grand nombre de jeux éducatifs était créé, leur adoption se limiterait tout de même aux éducateurs qui perçoivent une bonne adéquation entre ces jeux et leurs propres convictions et pratiques. Par conséquent, I'enseignement par les jeux serait bien plus répandu si les enseignants pouvaient développer leurs propres jeux, ou au moins les customiser. Mais le développement de jeux pédagogiques est complexe et coûteux. Cette recherche utilise une méthodologie Design Science pour développer, en s'appuyant sur des techniques de ludification, sur les théories de pédagogie active et d'apprentissage coopératif, ainsi que sur les mondes virtuels immersifs < bac à sable > en 3D, une méthode qui permet aux enseignants et formateurs de management, de transformer n'importe quelle étude de cas, provenant par exemple d'une centrale de cas, en une expérience ludique, collaborative et motivante. Cette méthode est appliquée aux études de cas Marketing dans le monde virtuel de Second Life.
Resumo:
Résumé:S'inscrivant dans le projet Construction intégrée des savoirs linguistiques et disciplinaires dans l'enseignement bilingue au secondaire et au tertiaire, dirigé par L. Gajo, notre étude met en relation des données concernant les représentations des acteurs de l'enseignement bilingue avec des exemples d'interactions effectives. Plusieurs décalages sont ainsi mis à jour, les pratiques s'avérant souvent largement plus complexes que les représentations qui leur sont sous-jacentes. Dans ce cadre, nous accordons une attention particulière aux spécificités disciplinaires, et interrogeons la traditionnelle représentation associant les mathématiques à une "langue en soi". Enfin, l'examen de séquences-types illustrera la richesse du travail effectivement réalisé en classe bilingue - tant dans les sciences humaines que dans les sciences exactes - et nous conclurons sur quelques propositions didactiques découlant directement de nos observations.Abstract:In der vorliegenden Studie (durchgeführt im Rahmen des von L. Gajo geleiteten Projekts Construction intégrée des savoirs linguistiques et disciplinaires dans l'enseignement bilingue au secondaire et au tertiaire) werden Vorstellungen der betroffenen Akteure über bilingualen Sachfachunterricht in Bezug zu Beispielen von real beobachteten Interaktionen gesetzt. Dabei können eine Reihe von Diskrepanzen aufgedeckt werden, da sich die Praxis häufig als wesentlich komplexer als die ihr zugrunde liegenden Vorstellungen erweist. Des Weiteren wird den fachspezifischen Eigenheiten besondere Aufmerksamkeit geschenkt und die Vorstellung hinterfragt, die die Mathematik als eine "Sprache an sich" ansieht. Die Analyse einiger Mustersequenzen veranschaulicht die vielseitige Realität der Arbeit in bilingualen Klassen - sowohl in den Geistes- und Sozialwissenschaften als auch in den Naturwissenschaften. Letztlich werden einige fachdidaktischen Empfehlungen abgegeben, die sich aus unseren Beobachtungen ableiten lassen.
Resumo:
La thèse essaie de montrer comment il est possible d'offrir une implémentation fonctionnelle d'un agent doté d'une conscience (psychologique). Une première étape étudie les différentes approches, définitions et théories de la conscience proposées par la littérature. Cette étude dégage plus particulièrement un modèle psychologique qui offre une modélisation des fonctionnalités de la conscience, de ses éléments constitutifs et des relations entre ces éléments. Cet effort de formalisation permet d'identifier les corrélations computionnelles du modèle ouvrant ainsi la voie à une implémentation fonctionnelle de la conscience. Une seconde étape réuni les outils et méthodes informatiques existants en vue de procéder à une telle implémentation. En particulier, celle-ci repose sur un modèle de communication permettant d'élaborer une machine virtuelle basée sur des processus concurrents synchronisés. La troisième étape consiste à implémenter les corrélations computationnelles dont l'une est une fonction de délibération qui, après une analyse itérative de son état et de son environnement (machine à état), aboutit à la sélection d'une action. Une deuxième fonction est la formation de contextes, autrement dit l'apprentissage d'automatismes, consistant à compiler la délibération. Cette compilation s'opère grâce à un processus concurrent reflétant le processus de délibération, dotant ainsi l'agent de la capacité d'observer son propre fonctionnement. La thèse se conclut en proposant quelques axes de recherches et d'applications futures susceptibles de prolonger le travail.
Resumo:
La biologie de la conservation est communément associée à la protection de petites populations menacées d?extinction. Pourtant, il peut également être nécessaire de soumettre à gestion des populations surabondantes ou susceptibles d?une trop grande expansion, dans le but de prévenir les effets néfastes de la surpopulation. Du fait des différences tant quantitatives que qualitatives entre protection des petites populations et contrôle des grandes, il est nécessaire de disposer de modèles et de méthodes distinctes. L?objectif de ce travail a été de développer des modèles prédictifs de la dynamique des grandes populations, ainsi que des logiciels permettant de calculer les paramètres de ces modèles et de tester des scénarios de gestion. Le cas du Bouquetin des Alpes (Capra ibex ibex) - en forte expansion en Suisse depuis sa réintroduction au début du XXème siècle - servit d?exemple. Cette tâche fut accomplie en trois étapes : En premier lieu, un modèle de dynamique locale, spécifique au Bouquetin, fut développé : le modèle sous-jacent - structuré en classes d?âge et de sexe - est basé sur une matrice de Leslie à laquelle ont été ajoutées la densité-dépendance, la stochasticité environnementale et la chasse de régulation. Ce modèle fut implémenté dans un logiciel d?aide à la gestion - nommé SIM-Ibex - permettant la maintenance de données de recensements, l?estimation automatisée des paramètres, ainsi que l?ajustement et la simulation de stratégies de régulation. Mais la dynamique d?une population est influencée non seulement par des facteurs démographiques, mais aussi par la dispersion et la colonisation de nouveaux espaces. Il est donc nécessaire de pouvoir modéliser tant la qualité de l?habitat que les obstacles à la dispersion. Une collection de logiciels - nommée Biomapper - fut donc développée. Son module central est basé sur l?Analyse Factorielle de la Niche Ecologique (ENFA) dont le principe est de calculer des facteurs de marginalité et de spécialisation de la niche écologique à partir de prédicteurs environnementaux et de données d?observation de l?espèce. Tous les modules de Biomapper sont liés aux Systèmes d?Information Géographiques (SIG) ; ils couvrent toutes les opérations d?importation des données, préparation des prédicteurs, ENFA et calcul de la carte de qualité d?habitat, validation et traitement des résultats ; un module permet également de cartographier les barrières et les corridors de dispersion. Le domaine d?application de l?ENFA fut exploré par le biais d?une distribution d?espèce virtuelle. La comparaison à une méthode couramment utilisée pour construire des cartes de qualité d?habitat, le Modèle Linéaire Généralisé (GLM), montra qu?elle était particulièrement adaptée pour les espèces cryptiques ou en cours d?expansion. Les informations sur la démographie et le paysage furent finalement fusionnées en un modèle global. Une approche basée sur un automate cellulaire fut choisie, tant pour satisfaire aux contraintes du réalisme de la modélisation du paysage qu?à celles imposées par les grandes populations : la zone d?étude est modélisée par un pavage de cellules hexagonales, chacune caractérisée par des propriétés - une capacité de soutien et six taux d?imperméabilité quantifiant les échanges entre cellules adjacentes - et une variable, la densité de la population. Cette dernière varie en fonction de la reproduction et de la survie locale, ainsi que de la dispersion, sous l?influence de la densité-dépendance et de la stochasticité. Un logiciel - nommé HexaSpace - fut développé pour accomplir deux fonctions : 1° Calibrer l?automate sur la base de modèles de dynamique (par ex. calculés par SIM-Ibex) et d?une carte de qualité d?habitat (par ex. calculée par Biomapper). 2° Faire tourner des simulations. Il permet d?étudier l?expansion d?une espèce envahisseuse dans un paysage complexe composé de zones de qualité diverses et comportant des obstacles à la dispersion. Ce modèle fut appliqué à l?histoire de la réintroduction du Bouquetin dans les Alpes bernoises (Suisse). SIM-Ibex est actuellement utilisé par les gestionnaires de la faune et par les inspecteurs du gouvernement pour préparer et contrôler les plans de tir. Biomapper a été appliqué à plusieurs espèces (tant végétales qu?animales) à travers le Monde. De même, même si HexaSpace fut initialement conçu pour des espèces animales terrestres, il pourrait aisément être étndu à la propagation de plantes ou à la dispersion d?animaux volants. Ces logiciels étant conçus pour, à partir de données brutes, construire un modèle réaliste complexe, et du fait qu?ils sont dotés d?une interface d?utilisation intuitive, ils sont susceptibles de nombreuses applications en biologie de la conservation. En outre, ces approches peuvent également s?appliquer à des questions théoriques dans les domaines de l?écologie des populations et du paysage.<br/><br/>Conservation biology is commonly associated to small and endangered population protection. Nevertheless, large or potentially large populations may also need human management to prevent negative effects of overpopulation. As there are both qualitative and quantitative differences between small population protection and large population controlling, distinct methods and models are needed. The aim of this work was to develop theoretical models to predict large population dynamics, as well as computer tools to assess the parameters of these models and to test management scenarios. The alpine Ibex (Capra ibex ibex) - which experienced a spectacular increase since its reintroduction in Switzerland at the beginning of the 20th century - was used as paradigm species. This task was achieved in three steps: A local population dynamics model was first developed specifically for Ibex: the underlying age- and sex-structured model is based on a Leslie matrix approach with addition of density-dependence, environmental stochasticity and culling. This model was implemented into a management-support software - named SIM-Ibex - allowing census data maintenance, parameter automated assessment and culling strategies tuning and simulating. However population dynamics is driven not only by demographic factors, but also by dispersal and colonisation of new areas. Habitat suitability and obstacles modelling had therefore to be addressed. Thus, a software package - named Biomapper - was developed. Its central module is based on the Ecological Niche Factor Analysis (ENFA) whose principle is to compute niche marginality and specialisation factors from a set of environmental predictors and species presence data. All Biomapper modules are linked to Geographic Information Systems (GIS); they cover all operations of data importation, predictor preparation, ENFA and habitat suitability map computation, results validation and further processing; a module also allows mapping of dispersal barriers and corridors. ENFA application domain was then explored by means of a simulated species distribution. It was compared to a common habitat suitability assessing method, the Generalised Linear Model (GLM), and was proven better suited for spreading or cryptic species. Demography and landscape informations were finally merged into a global model. To cope with landscape realism and technical constraints of large population modelling, a cellular automaton approach was chosen: the study area is modelled by a lattice of hexagonal cells, each one characterised by a few fixed properties - a carrying capacity and six impermeability rates quantifying exchanges between adjacent cells - and one variable, population density. The later varies according to local reproduction/survival and dispersal dynamics, modified by density-dependence and stochasticity. A software - named HexaSpace - was developed, which achieves two functions: 1° Calibrating the automaton on the base of local population dynamics models (e.g., computed by SIM-Ibex) and a habitat suitability map (e.g. computed by Biomapper). 2° Running simulations. It allows studying the spreading of an invading species across a complex landscape made of variously suitable areas and dispersal barriers. This model was applied to the history of Ibex reintroduction in Bernese Alps (Switzerland). SIM-Ibex is now used by governmental wildlife managers to prepare and verify culling plans. Biomapper has been applied to several species (both plants and animals) all around the World. In the same way, whilst HexaSpace was originally designed for terrestrial animal species, it could be easily extended to model plant propagation or flying animals dispersal. As these softwares were designed to proceed from low-level data to build a complex realistic model and as they benefit from an intuitive user-interface, they may have many conservation applications. Moreover, theoretical questions in the fields of population and landscape ecology might also be addressed by these approaches.
Resumo:
The Department of French Studies of the University of Turku (Finland) organized an International Bilingual Conference on Crosscultural and Crosslinguistic Perspectives on Academic Discourse from 2022 May 2005. The event hosted specialists on Academic Discourse from Belgium, Finland, France, Germany, Italy, Norway, Spain, and the USA. This book is the first volume in our series of publications on Academic Discourse (AD hereafter). The following pages are composed of selected papers from the conference and focus on different aspects and analytical frameworks of Academic Discourse. One of the motivations behind organizing the conference was to examine and expand research on AD in different languages. Another one was to question to what extent academic genres are culturebound and language specific or primarily field or domain specific. The research carried out on AD has been mainly concerned with the use of English in different academic settings for a long time now – mainly written contexts – and at the expense of other languages. Alternatively the academic genre conventions of English and English speaking world have served as a basis for comparison with other languages and cultures. We consider this first volume to be a strong contribution to the spreading out of researches based on other languages than English in AD, namely Finnish, French, Italian, Norwegian and Romanian in this book. All the following articles have a strong link with the French language: either French is constitutive of the AD corpora under examination or the article was written in French. The structure of the book suggests and provides evidence that the concept of AD is understood and tackled to varying degrees by different scholars. Our first volume opens up the discussion on what AD is and backs dissemination, overlapping and expansion of current research questions and methodologies. The book is divided into three parts and contains four articles in English and six articles in French. The papers in part one and part two cover what we call the prototypical genre of written AD, i.e. the research article. Part one follows up on issues linked to the 13 Research Article (RA hereafter). Kjersti Fløttum asks wether a typical RA exists and concentrates on authors’ voices in RA (self and other dimensions), whereas Didriksen and Gjesdal’s article focuses on individual variation of the author’s voice in RA. The last article in this section is by Nadine Rentel and deals with evaluation in the writing of RA. Part two concentrates on the teaching and learning of AD within foreign language learning, another more or less canonical genre of AD. Two aspects of writing are covered in the first two articles: foreign students’ representations on rhetorical traditions (Hidden) and a contrastive assessment of written exercices in French and Finnish in Higher Education (Suzanne). The last contribution in this section on AD moves away from traditional written forms and looks at how argumentation is constructed in students’ oral presentations (Dervin and Fauveau). The last part of the book continues the extension by featuring four articles written in French exploring institutional and scientific discourses. Institutional discourses under scrutiny include the European Bologna Process (Galatanu) and Romanian reform texts (Moilanen). As for scientific discourses, the next paper in this section deconstructs an ideological discourse on the didactics of French as a foreign language (Pescheux). Finally, the last paper in part three reflects on varied forms of AD at university (Defays). We hope that this book will add some fuel to continue discussing diverse forms of and approches to AD – in different languages and voices! No need to say that with the current upsurge in academic mobility, reflecting on crosscultural and crosslinguistic AD has just but started.
Resumo:
Les 21, 22 et 23 septembre 2006, le Département d’Études Françaises de l’Université de Turku (Finlande) a organisé une conférence internationale et bilingue (anglais et français) sur le thème de la mobilité académique ; le but de cette rencontre était de rendre possible la tenue d’un forum international et multidisciplinaire, susceptible d’être le siège de divers débats entre les différents acteurs de la mobilité académique (c’estàdire des étudiants, des chercheurs, des personnels enseignants et administratifs, etc.). Ainsi, ont été mis à contribution plus de cinquante intervenants, (tous issus de domaines aussi variés que la linguistique, les sciences de l’éducation, la didactique, l’anthropologie, la sociologie, la psychologie, l’histoire, la géographie, etc.) ainsi que cinq intervenants renommés1. La plupart des thèmes traités durant la conférence couvraient les champs suivants : l’organisation de la mobilité, les obstacles rencontrés par les candidats à la mobilité, l’intégration des étudiants en situation d’échange, le développement des programmes d’études, la mobilité virtuelle, l’apprentissage et l’enseignement des langues, la prise de cosncience interculturelle, le développement des compétences, la perception du système de mobilité académique et ses impacts sur la mobilité effective. L’intérêt du travail réalisé durant la conférence réside notamment dans le fait qu’il ne concentre pas uniquement des perspectives d’étudiants internationaux et en situation d’échange (comme c’est le cas de la plupart des travaux de recherche déjà menés sur ce sujet), mais aussi ceux d’autres corps : enseignants, chercheurs, etc. La contribution suivante contient un premier corpus de dixsept articles, répartis en trois sections : 1. Impacts de la mobilité étudiante ; 2. Formation en langues ; 3. Amélioration de la mobilité académique. À l’image de la conférence, la production qui suit est bilingue : huit des articles sont rédigés en français, et les neuf autres en anglais. Certains auteurs n’ont pas pu assister à la conférence mais ont tout de même souhaité apparaître dans cet ouvrage. Dans la première section de l’ouvrage, Sandrine Billaud tâche de mettre à jour les principaux obstacles à la mobilité étudiante en France (logement, organisation des universités, démarches administratives), et propose à ce sujet quelques pistes d’amélioration. Vient ensuite un article de Dominique Ulma, laquelle se penche sur la mobilité académique régnant au sein des Instituts Universitaires de Formation des Maîtres (IUFM) ; elle s’est tout particulièrement concentrée sur l’enthousiasme des stagiaires visàvis de la mobilité, et sur les bénéfices qu’apporte la mobilité Erasmus à ce type précis d’étudiant. Ensuite, dans un troisième article, Magali Hardoin s’interroge sur les potentialités éducationnelles de la mobilité des enseignantsstagiaires, et tâche de définir l’impact de celleci sur la construction de leur profil professionnel. Après cela arrive un groupe de trois articles, tous réalisés à bases d’observations faites dans l’enseignement supérieur espagnol, et qui traitent respectivement de la portée qu’a le programme de triple formation en langues européennes appliquées pour les étudiants en mobilité (Marián MorónMartín), des conséquences qu’occasionne la présence d’étudiants étrangers dans les classes de traductions (Dimitra Tsokaktsidu), et des réalités de l’intégration sur un campus espagnol d’étudiants américains en situation d’échange (Guadalupe Soriano Barabino). Le dernier article de la section, issu d’une étude sur la situation dans les institutions japonaises, fait état de la situation des programmes de doubles diplômes existant entre des établissements japonais et étrangers, et tente de voir quel est l’impact exact de tels programmes pour les institutions japonaises (Mihoko Teshigawara, Riichi Murakami and Yoneo Yano). La seconde section est elle consacrée à la relation entre apprentissage et enseignement des langues et mobilité académique. Dans un premier article, Martine Eisenbeis s’intéresse à des modules multimédia réalisés à base du film « L’auberge espagnole », de Cédric Klapish (2001), et destinés aux étudiants en mobilité désireux d’apprendre et/ou améliorer leur français par des méthodes moins classiques. Viennent ensuite les articles de Jeanine Gerbault et Sabine Ylönen, lesquels traitent d’un projet européen visant à supporter la mobilité étudiante par la création d’un programme multimédia de formation linguistique et culturelle pour les étudiants en situation de mobilité (le nom du projet est EUROMOBIL). Ensuite, un article de Pascal Schaller s’intéresse aux différents types d’activités que les étudiants en séjour à l’étranger expérimentent dans le cadre de leur formation en langue. Enfin, la section s’achève avec une contribution de Patricia KohlerBally, consacrée à un programme bilingue coordonné par l’Université de Fribourg (Suisse). La troisième et dernière section propose quelques pistes de réflexion destinées à améliorer la mobilité académique des étudiants et des enseignants ; dans ce cadre seront donc évoquées les questions de l’égalité face à la mobilité étudiante, de la préparation nécessitée par celleci, et de la prise de conscience interculturelle. Dans un premier chapitre, Javier Mato et Bego