917 resultados para Simulation in robotcs
Resumo:
Tutkielman päätavoitteena oli selvittää, miten Monte Carlo –simulointi soveltuu strategisten reaalioptioiden arvonmääritykseen. Tutkielman teoriaosuudessa käytiin läpi reaalioptioteoriaa ja Monte Carlo –simulointimenetelmää toiminta-analyyttisella tutkimusotteella. Tuloksena todettiin, että simulointimenetelmää on reaalioptioiden yhteydessä yleensä käytetty, kun muu menetelmä ei ole ollut mahdollinen. Tutkielman pääpaino on tapaustutkimukseen pohjautuvassa empiriaosuudessa, jossa rakennettiin päätöksentekometodologista tutkimusotetta seuraten simulointimalli, jolla tutkittiin Voest Alpine Stahl Ag:n vaihtoehtoisten hinnoittelustrategioiden taloudellista vaikutusta. Mallin rakentaminen perustui yrityksen tilinpäätösaineistoon. Havaittiin, ettei yritys ole valitsemansa strategian vuoksi juurikaan menettänyt tuottoja, mutta toisaalta pelkkä tilinpäätösaineisto ei riitä kovin luotettavaan tarkasteluun. Vuosikertomusten antaman tiedon pohjalta analysoitiin lisäksi yrityksen toiminnassa havaittuja reaalioptioita. Monte Carlo –simulointimenetelmä sopii reaalioptioiden arvonmääritykseen, mutta kriittisiä tekijöitä ovat mallin rakentaminen ja lähtötietojen oikeellisuus. Numeerisen mallin rinnalla on siksi aiheellista suorittaa myös laadullista reaalioptioanalyysia.
Resumo:
Durante toda la evolución de la tecnología, se han empleado aparatos interconexionados por cables. Los cables limitan la libertad de movimiento del usuario y pueden captar interferencias entre ellos si la red de cableado es elevada. Mientras avanzaba la tecnología inalámbrica, se ha ido adaptando al equipamiento electrónico a la vez que se iban haciendo cada vez más pequeños. Por esto, se impone la necesidad de utilizarlos como controles a distancia sin el empleo de cables debido a los inconvenientes que estos conllevan. El presente trabajo, pretende unificar tres tecnologías que pueden tener en el futuro una gran afinidad. · Dispositivos basados en el sistema Android. Desde sus inicios, han tenido una evolución meteórica. Se han ido haciendo cada vez más rápidos y mejores. · Sistemas inalámbricos. Los sistemas wifi o bluetooth, se han ido incorporando a nuestras vidas cada vez más y están prácticamente en cualquier aparato. · Robótica. Cualquier proceso de producción incorpora un robot. Son necesarios para hacer muchos trabajos que, aunque el hombre lo puede realizar, un robot reduce los tiempos y la peligrosidad de los procesos. Aunque las dos primeras tecnologías van unidas, ¿quién no tiene un teléfono con conexión wifi y bluetooth?, pocos diseños aúnan estos campos con la Robótica. El objetivo final de este trabajo es realizar una aplicación en Android para el control remoto de un robot, empleando el sistema de comunicación inalámbrico. La aplicación desarrollada, permite controlar el robot a conveniencia del usuario en un entorno táctil/teledirigido. Gracias a la utilización de simulador en ambos lenguajes (RAPID y Android), ha sido posible realizar la programación sin tener que estar presente ante el robot objeto de este trabajo. A través de su progreso, se ha ido evolucionando en la cantidad de datos enviados al robot y complejidad en su procesamiento, a la vez que se ha mejorado en la estética de la aplicación. Finalmente se usó la aplicación desarrollada con el robot, consiguiendo con éxito que realizara los movimientos que eran enviados con la tablet programada.
Resumo:
Hypothesis: The quality of care for chronic patients depends on the collaborative skills of the healthcare providers.1,2 The literature lacks reports of the use of simulation to teach collaborative skills in non-acute care settings. We posit that simulation offers benefits for supporting the development of collaborative practice in non-acute settings. We explored the benefits and challenges of using an Interprofessional Team - Objective Structured Clinical Examination (IT-OSCE) as a formative assessment tool. IT-OSCE is an intervention which involves an interprofessional team of trainees interacting with a simulated patient (SP) enabling them to practice collaborative skills in non-acute care settings.5 A simulated patient are people trained to portray patients in a simulated scenario for educational purposes.6,7 Since interprofessional education (IPE) ultimately aims to provide collaborative patient-centered care.8,9 We sought to promote patient-centeredness in the learning process. Methods: The IT-OSCE was conducted with four trios of students from different professions. The debriefing was co-facilitated by the SP with a faculty. The participants were final-year students in nursing, physiotherapy and medicine. Our research question focused on the introduction of co-facilitated (SP and faculty) debriefing after an IT-OSCE: 1) What are the benefits and challenges of involving the SP during the debriefing? and 2) To evaluate the IT-OSCE, an exploratory case study was used to provide fine grained data 10, 11. Three focus groups were conducted - two with students (n=6; n=5), one with SPs (n=3) and one with faculty (n=4). Audiotapes were transcribed for thematic analysis performed by three researchers, who found a consensus on the final set of themes. Results: The thematic analysis showed little differentiation between SPs, student and faculty perspectives. The analysis of transcripts revealed more particularly, that the SP's co-facilitation during the debriefing of an IT-OSCE proved to be feasible. It was appreciated by all the participants and appeared to value and to promote patient-centeredness in the learning process. The main challenge consisted in SPs feedback, more particularly in how they could report accurate observations to a students' group rather than individual students. Conclusion: In conclusion, SP methodology using an IT-OSCE seems to be a useful and promising way to train collaborative skills, aligning IPE, simulation-based team training in a non-acute care setting and patient-centeredness. We acknowledge the limitations of the study, especially the small sample and consider the exploration of SP-based IPE in non-acute care settings as strength. Future studies could consider the preparation of SPs and faculty as co-facilitators. References: 1. Borrill CS, Carletta J, Carter AJ, et al. The effectiveness of health care teams in the National Health Service. Aston centre for Health Service Organisational Research. 2001. 2. Reeves S, Lewin S, Espin S, Zwarenstein M. Interprofessional teamwork for health and social care. Oxford: Wiley-Blackwell; 2010. 3. Issenberg S, McGaghie WC, Petrusa ER, Gordon DL, Scalese RJ. Features and uses of high-fidelity medical simulations that lead to effective learning - a BEME systematic review. Medical Teacher. 2005;27(1):10-28. 4. McGaghie W, Petrusa ER, Gordon DL, Scalese RJ. A critical review of simulation-based medical education research: 2003-2009. Medical Education. 2010;44(1):50-63. 5. Simmons B, Egan-Lee E, Wagner SJ, Esdaile M, Baker L, Reeves S. Assessment of interprofessional learning: the design of an interprofessional objective structured clinical examination (iOSCE) approach. Journal of Interprofessional Care. 2011;25(1):73-74. 6. Nestel D, Layat Burn C, Pritchard SA, Glastonbury R, Tabak D. The use of simulated patients in medical education: Guide Supplement 42.1 - Viewpoint. Medical teacher. 2011;33(12):1027-1029. Disclosures: None (C) 2014 by Lippincott Williams & Wilkins, Inc.
Resumo:
Miller and Gerlai proposed two methods for determining shoal membership in Danio rerio, one based on momentary mean inter-individual distances and the other on post hoc analysis of the trajectories of nearest-neighbor distances. We propose a method based on momentary nearest-neighbor distances and compare the three methods using simulation. In general, our method yielded results that were more similar to their second method than their first one, and is computationally simpler.
Resumo:
Aquest projecte es basa en el modelatge i simulació de sistemes utilitzant un simulador digital, i pretén ser una guia docent com a eina d’ajuda per a una assignatura que, a priori, s’impartirà a la Universitat de Vic. La simulació és una tècnica que permet representar el comportament de processos (físics, productius, de serveis, etc.) sense necessitat d’accedir al sistema real. Per analitzar, estudiar i millorar el comportament d’un sistema mitjançant la tècnica de la simulació digital és necessari primer desenvolupar un model conceptual que descrigui les variables d’interès, i després implementar-lo en un simulador per poder analitzar els resultats. ARENA és el software de simulació que s’estudia en aquest projecte i es presenta com una eina que permet la descripció complerta de l’experiència que una entitat desenvolupa a l’interior del sistema mentre flueix a través d’aquest. En concret s’utilitza la versió ARENA 10.0. Pel que fa a l’estructura del projecte, primerament s’introdueixen conceptes teòrics referents a la simulació, així com avantatges i inconvenients i els camps d’aplicació de la simulació. Seguidament i ja centrats en l’Arena, s’analitza un exemple senzill per començar-ne a veure el funcionament. Posteriorment, es van estudiant varis exemples amb complexitat progressiva. Aquests exemples es desenvolupen pas a pas de manera que es puguin anar provant amb el simulador. En el transcurs del projecte es van estudiant les eines de l’Arena i les seves possibilitats, així com els resultats obtinguts i les interpretacions d’aquests. Aquest projecte pretén, doncs, donar conceptes introductoris en el camp de la simulació en general, i, en particular, descriure eines bàsiques sobre el funcionament de l’Arena.
Resumo:
Tämän diplomityön tavoitteena oli kehittää erään liikkuvia työkoneita valmistavan yrityksen osavalmistuksen tuotannonohjausta. Ohjauksen kehittämisessä otettiin huomioon myös tehtaan liityntäpinnat, eli koko tilaus- toimitusketju. Tuotannonohjauksesta oli tavoitteena kehittää visuaalinen ja mahdollisimman itseohjautuva. Työssä on selvitetty osavalmistuksen nykytilanne ja ohjauksen ongelmakohdat. Kappaleiden valmistamiseen käytettävät vaiheajat tarkastettiin ja tutkittiin tehtaalla valmistettavien merkittävien osien kohdalta. Osasta tuotteista selvitettiin myös tuotteiden valmistuksen läpäisyajat konkreettisten seurantalomakkeiden avulla. Yritykselle soveltuvin ohjausmallin runko etsittiin työn tavoitteen ja toimintaympäristön kautta. Lopulta parhaaksi valitun ohjausmallin toimivuus varmistettiin tietokoneavusteisen simuloinnin avulla. Toiminnan tehostamiseksi työssä on annettu idea myös kuinka tehtaan layoutia olisi hyvä muuttaa. Ohjausmallin käytännön toteutuksesta on työssä annettu esimerkki. Esimerkissä on huomioitu millaista visuaalista ratkaisua olisi parasta käyttää ohjauksen itseohjautuvuuden lisäämiseksi. Työssä annettu myös ideoita kuinka osien varastointia ja kotiinkutsujen tekemistä olisi hyvä parantaa sekä miten saldotietoja saisi mahdollisesti helpommin ylläpidettäväksi.
Resumo:
Esitetyn tutkimuksen tavoite on selvittää yksinkertaisen sähköajoneuvosimulaation avulla sähkökäyttösimulaation ja mekaniikkasimulaation välisen ohjelmallisen rajapinnan toimivuutta ja samalla toteuttaa LUT Energian hybridilaboratorion ensimmäinen rajapintaa hyödyntävä sähkökäytön ja mekaniikan yhdistelmäsimulaatio. Tutkimus on osa Lappeenrannan teknillisen yliopiston hybridikäyttötutkimusta, jossa muun muassa virtuaalisimuloinnin ja in-loop –simulaatioiden avulla tutkitaan raskaiden työkoneiden hybridisoinnin vaikutuksia esimerkiksi niiden suorituskykyyn, energiatehokkuuteen ja käytettävyyteen. Tulokset osoittavat mainitun rajapinnan toimivuuden, mikä mahdollistaa tutkimuksen etenemisen. Lisäksi raportti selvittää virtuaalisimuloinnin keskeisiä käsitteitä (virtual prototyping, hardware-in-the-loop sekä human-in-the-loop –simulointi).
Resumo:
Syftet med avhandlingen är att studera lärarstuderandes samtal om simulerad skolverksamhet för att söka förstå möjligheter och begränsningar med simulerade dilemman som medierande redskap för reflektion över lärares arbete. Undersökningen är genomförd under seminarier i svensk och finländsk lärarutbildning. Forskningsprocessen består av tre faser; en konstruktionsfas, en prövningsfas och en undersökningsfas. Under konstruktionsfasen producerades simuleringar på basen av en narrativ analys av semistrukturerade intervjuer med nyutbildade lärare. Simuleringarna testades med lärare och lärarstuderande i prövningsfasen. I undersökningsfasen utarbetades reflektionsfrågor och studiens empiriska data samlades in genom videoobservation. Totalt femton samtal filmades vid fem seminarier och tre olika lärosäten, två i Sverige och ett i Svenskfinland. De studerande som förekommer i datamaterialet befann sig i början, mitten och i slutet av sin lärarutbildning. Analysen bygger på Schöns olika reflektionsbegrepp och ett sociokulturellt perspektiv som bygger på den ryska kulturhistoriska skolan. Resultaten visar att de studerande engagerade sig starkt i samtalen i de flesta fall och att engagemanget var relaterat till deras uppfattningar om simuleringens autenticitet. Simuleringarna och reflektionsfrågorna användes både som sekundära och tertiära artefakter. Bland simuleringarnas modaliteter framstod ljudet som den viktigaste för nyanser av förståelse och engagemang och reflektionsfrågorna fungerade som kommunikativt stöd och strukturell scaffolding. När de studerande använde simuleringen för dekontextualisering i en öppen dialog förekom en tertiär dialog, i vilken förhandling av ny mening ägde rum. Kreativ reflektion – att se dilemmat ur olika perspektiv och reciprok reflektion – öppen utmanande dialog förekom flitigt i vilka en didaktiskanalytisk praktikgemenskap skapades. Slutsatserna är att simulerade skoldilemman kan utgöra en potential för lärarstuderandes utveckling av reflektionsförmåga när de används i mindre samtalsgrupper och den didaktiska inramningen relateras till aktuellt kursinnehåll. Om simuleringens innehåll inte upplevs som autentiskt finns dock risk för att förutfattade meningar om lärares arbete förstärks om de inte utmanas av medstuderande eller lärarutbildare.
Resumo:
A parallel pseudo-spectral method for the simulation in distributed memory computers of the shallow-water equations in primitive form was developed and used on the study of turbulent shallow-waters LES models for orographic subgrid-scale perturbations. The main characteristics of the code are: momentum equations integrated in time using an accurate pseudo-spectral technique; Eulerian treatment of advective terms; and parallelization of the code based on a domain decomposition technique. The parallel pseudo-spectral code is efficient on various architectures. It gives high performance onvector computers and good speedup on distributed memory systems. The code is being used for the study of the interaction mechanisms in shallow-water ows with regular as well as random orography with a prescribed spectrum of elevations. Simulations show the evolution of small scale vortical motions from the interaction of the large scale flow and the small-scale orographic perturbations. These interactions transfer energy from the large-scale motions to the small (usually unresolved) scales. The possibility of including the parametrization of this effects in turbulent LES subgrid-stress models for the shallow-water equations is addressed.
Resumo:
Resilience is the property of a system to remain trustworthy despite changes. Changes of a different nature, whether due to failures of system components or varying operational conditions, significantly increase the complexity of system development. Therefore, advanced development technologies are required to build robust and flexible system architectures capable of adapting to such changes. Moreover, powerful quantitative techniques are needed to assess the impact of these changes on various system characteristics. Architectural flexibility is achieved by embedding into the system design the mechanisms for identifying changes and reacting on them. Hence a resilient system should have both advanced monitoring and error detection capabilities to recognise changes as well as sophisticated reconfiguration mechanisms to adapt to them. The aim of such reconfiguration is to ensure that the system stays operational, i.e., remains capable of achieving its goals. Design, verification and assessment of the system reconfiguration mechanisms is a challenging and error prone engineering task. In this thesis, we propose and validate a formal framework for development and assessment of resilient systems. Such a framework provides us with the means to specify and verify complex component interactions, model their cooperative behaviour in achieving system goals, and analyse the chosen reconfiguration strategies. Due to the variety of properties to be analysed, such a framework should have an integrated nature. To ensure the system functional correctness, it should rely on formal modelling and verification, while, to assess the impact of changes on such properties as performance and reliability, it should be combined with quantitative analysis. To ensure scalability of the proposed framework, we choose Event-B as the basis for reasoning about functional correctness. Event-B is a statebased formal approach that promotes the correct-by-construction development paradigm and formal verification by theorem proving. Event-B has a mature industrial-strength tool support { the Rodin platform. Proof-based verification as well as the reliance on abstraction and decomposition adopted in Event-B provides the designers with a powerful support for the development of complex systems. Moreover, the top-down system development by refinement allows the developers to explicitly express and verify critical system-level properties. Besides ensuring functional correctness, to achieve resilience we also need to analyse a number of non-functional characteristics, such as reliability and performance. Therefore, in this thesis we also demonstrate how formal development in Event-B can be combined with quantitative analysis. Namely, we experiment with integration of such techniques as probabilistic model checking in PRISM and discrete-event simulation in SimPy with formal development in Event-B. Such an integration allows us to assess how changes and di erent recon guration strategies a ect the overall system resilience. The approach proposed in this thesis is validated by a number of case studies from such areas as robotics, space, healthcare and cloud domain.
Resumo:
De nos jours, il est bien accepté que le cycle magnétique de 11 ans du Soleil est l'oeuvre d'une dynamo interne présente dans la zone convective. Bien qu'avec la puissance de calculs des ordinateurs actuels il soit possible, à l'aide de véritables simulations magnétohydrodynamiques, de résoudre le champ magnétique et la vitessse dans toutes les directions spatiales, il n'en reste pas moins que pour étudier l'évolution temporelle et spatiale de la dynamo solaire à grande échelle, il reste avantageux de travailler avec des modèles plus simples. Ainsi, nous avons utilisé un modèle simplifié de la dynamo solaire, nommé modèle de champ moyen, pour mieux comprendre les mécanismes importants à l'origine et au maintien de la dynamo solaire. L'insertion d'un tenseur-alpha complet dans un modèle dynamo de champ moyen, provenant d'un modèle global-MHD [Ghizaru et al., 2010] de la convection solaire, nous a permis d'approfondir le rôle que peut jouer la force électromotrice dans les cycles magnétiques produits par ce modèle global. De cette façon, nous avons pu reproduire certaines caractéristiques observées dans les cycles magnétiques provenant de la simulation de Ghizaru et al., 2010. Tout d'abord, le champ magnétique produit par le modèle de champ moyen présente deux modes dynamo distincts. Ces modes, de périodes similaires, sont présents et localisés sensiblement aux mêmes rayons et latitudes que ceux produits par le modèle global. Le fait que l'on puisse reproduire ces deux modes dynamo est dû à la complexité spatiale du tenseur-alpha. Par contre, le rapport entre les périodes des deux modes présents dans le modèle de champ moyen diffère significativement de celui trouvé dans le modèle global. Par ailleurs, on perd l'accumulation d'un fort champ magnétique sous la zone convective dans un modèle où la rotation différentielle n'est plus présente. Ceci suggère que la présence de rotation différentielle joue un rôle non négligeable dans l'accumulation du champ magnétique à cet endroit. Par ailleurs, le champ magnétique produit dans un modèle de champ moyen incluant un tenseur-alpha sans pompage turbulent global est très différent de celui produit par le tenseur original. Le pompage turbulent joue donc un rôle fondamental au sein de la distribution spatiale du champ magnétique. Il est important de souligner que les modèles dépourvus d'une rotation différentielle, utilisant le tenseur-alpha original ou n'utilisant pas de pompage turbulent, parviennent tous deux à produire une dynamo oscillatoire. Produire une telle dynamo à l'aide d'un modèle de ce type n'est pas évident, a priori. Finalement, l'intensité ainsi que le type de profil de circulation méridienne utilisés sont des facteurs affectant significativement la distribution spatiale de la dynamo produite.
Resumo:
Nous étudions la gestion de centres d'appels multi-compétences, ayant plusieurs types d'appels et groupes d'agents. Un centre d'appels est un système de files d'attente très complexe, où il faut généralement utiliser un simulateur pour évaluer ses performances. Tout d'abord, nous développons un simulateur de centres d'appels basé sur la simulation d'une chaîne de Markov en temps continu (CMTC), qui est plus rapide que la simulation conventionnelle par événements discrets. À l'aide d'une méthode d'uniformisation de la CMTC, le simulateur simule la chaîne de Markov en temps discret imbriquée de la CMTC. Nous proposons des stratégies pour utiliser efficacement ce simulateur dans l'optimisation de l'affectation des agents. En particulier, nous étudions l'utilisation des variables aléatoires communes. Deuxièmement, nous optimisons les horaires des agents sur plusieurs périodes en proposant un algorithme basé sur des coupes de sous-gradients et la simulation. Ce problème est généralement trop grand pour être optimisé par la programmation en nombres entiers. Alors, nous relaxons l'intégralité des variables et nous proposons des méthodes pour arrondir les solutions. Nous présentons une recherche locale pour améliorer la solution finale. Ensuite, nous étudions l'optimisation du routage des appels aux agents. Nous proposons une nouvelle politique de routage basé sur des poids, les temps d'attente des appels, et les temps d'inoccupation des agents ou le nombre d'agents libres. Nous développons un algorithme génétique modifié pour optimiser les paramètres de routage. Au lieu d'effectuer des mutations ou des croisements, cet algorithme optimise les paramètres des lois de probabilité qui génèrent la population de solutions. Par la suite, nous développons un algorithme d'affectation des agents basé sur l'agrégation, la théorie des files d'attente et la probabilité de délai. Cet algorithme heuristique est rapide, car il n'emploie pas la simulation. La contrainte sur le niveau de service est convertie en une contrainte sur la probabilité de délai. Par après, nous proposons une variante d'un modèle de CMTC basé sur le temps d'attente du client à la tête de la file. Et finalement, nous présentons une extension d'un algorithme de coupe pour l'optimisation stochastique avec recours de l'affectation des agents dans un centre d'appels multi-compétences.
Resumo:
La vectorisation des médicaments est une approche très prometteuse tant sur le plan médical qu’économique pour la livraison des substances actives ayant une faible biodisponibilité. Dans ce contexte, les polymères en étoile et les dendrimères, macromolécules symétriques et branchées, semblent être les solutions de vectorisation les plus attrayantes. En effet, ces structures peuvent combiner efficacement une stabilité élevée dans les milieux biologiques à une capacité d’encapsulation des principes actifs. Grâce à leur architecture bien définie, ils permettent d’atteindre un très haut niveau de reproductibilité de résultats, tout en évitant le problème de polydispersité. Bien que des nombreuses structures dendritiques aient été proposées ces dernières années, il est cependant à noter que la conception de nouveaux nanovecteurs dendritiques efficaces est toujours d’actualité. Ceci s’explique par des nombreuses raisons telles que celles liées à la biocompatibilité, l’efficacité d’encapsulation des agents thérapeutiques, ainsi que par des raisons économiques. Dans ce projet, de nouvelles macromolécules branchées biocompatibles ont été conçues, synthétisées et évaluées. Pour augmenter leur efficacité en tant qu’agents d’encapsulations des principes actifs hydrophobes, les structures de ces macromolécules incluent un coeur central hydrophobe à base de porphyrine, décanediol ou trioléine modifié et, également, une couche externe hydrophile à base d’acide succinique et de polyéthylène glycol. Le choix des éléments structuraux de futures dendrimères a été basé sur les données de biocompatibilité, les résultats de nos travaux de synthèse préliminaires, ainsi que les résultats de simulation in silico réalisée par une méthode de mécanique moléculaire. Ces travaux ont permis de choisir des composés les plus prometteurs pour former efficacement et d’une manière bien contrôlable des macromolécules polyesters. Ils ont aussi permis d’évaluer au préalable la capacité de futurs dendrimères de capter une molécule médicamenteuse (itraconazole). Durant cette étape, plusieurs nouveaux composés intermédiaires ont été obtenus. L’optimisation des conditions menant à des rendements réactionnels élevés a été réalisée. En se basant sur les travaux préliminaires, l’assemblage de nouveaux dendrimères de première et de deuxième génération a été effectué, en utilisant les approches de synthèse divergente et convergente. La structure de nouveaux composés a été prouvée par les techniques RMN du proton et du carbone 13C, spectroscopie FTIR, UV-Vis, analyse élémentaire, spectrométrie de masse et GPC. La biocompatibilité de produits a été évaluée par les tests de cytotoxicité avec le MTT sur les macrophages murins RAW-262.7. La capacité d’encapsuler les principes actifs hydrophobes a été étudiée par les tests avec l’itraconazole, un antifongique puissant mais peu biodisponible. La taille de nanoparticules formées dans les solutions aqueuses a été mesurée par la technique DLS. Ces mesures ont montré que toutes les structures dendritiques ont tendance à former des micelles, ce qui exclue leurs applications en tant que nanocapsules unimoléculaires. L’activité antifongique des formulations d’itraconazole encapsulé avec les dendrimères a été étudiée sur une espèce d’un champignon pathogène Candida albicans. Ces tests ont permis de conclure que pour assurer l’efficacité du traitement, un meilleur contrôle sur le relargage du principe actif était nécessaire.
Resumo:
Les mécanismes qui entretiennent le cycle magnétique solaire sont encore aujourd’hui relativement mal compris. Entre autres, certains travaux suggèrent la présence d’insta- bilités magnétohydrodynamiques qui pourraient avoir une influence significative sur la période du cycle par leur capacité à accélérer la destruction des structures magnétiques à grandes échelles. Nous analysons la présence des instabilités au sein des simulations effectuées à l’aide du modèle EULAG-MHD en utilisant premièrement une méthodologie basée sur un proxy spécifique associé à l’instabilité et en le comparant à un proxy similaire, mais pour le cycle magnétique solaire observé dans notre modèle. Cette méthodologie fait ressortir une évolution temporellement cyclique du proxy de l’instabilité avec des amplitudes similaires au proxy du cycle magnétique, mais présentant un léger déphasage. Nous poursuivons cette analyse en appliquant une méthode se basant sur le découpage de “zones instables” via le critère de Tayler dans la zone stable de notre modèle. L’application expose une migration équatoriale d’une zone instable qui débute à très hautes latitudes aux pôles, passe par le champ toroïdal classique, accélère et atteint l’équateur. Cette zone instable semble accélérer la destruction du champ magnétique présent, laissant place au nouveau champ pour la prochaine demie-période du cycle. La combinaison de ces deux analyses permet d’énoncer un scénario plausible qui inclut les effets d’une telle instabilité sur le cycle magnétique ainsi que sur la stabilité globale de notre simulation. Dans ce scénario, il est important de noter que les inversions de polarités semblent indépendantes de cette instabilité, qui ne ferait qu’accélérer le processus de destruction du champ déjà en place.
Resumo:
Mit der vorliegenden Arbeit soll ein Beitrag zu einer (empirisch) gehaltvollen Mikrofundierung des Innovationsgeschehens im Rahmen einer evolutorischen Perspektive geleistet werden. Der verhaltensbezogene Schwerpunkt ist dabei, in unterschiedlichem Ausmaß, auf das Akteurs- und Innovationsmodell von Herbert Simon bzw. der Carnegie-School ausgerichtet und ergänzt, spezifiziert und erweitert dieses unter anderem um vertiefende Befunde der Kreativitäts- und Kognitionsforschung bzw. der Psychologie und der Vertrauensforschung sowie auch der modernen Innovationsforschung. zudem Bezug auf einen gesellschaftlich und ökonomisch relevanten Gegenstandsbereich der Innovation, die Umweltinnovation. Die Arbeit ist sowohl konzeptionell als auch empirisch ausgerichtet, zudem findet die Methode der Computersimulation in Form zweier Multi-Agentensysteme Anwendung. Als zusammenfassendes Ergebnis lässt sich im Allgemeinen festhalten, dass Innovationen als hochprekäre Prozesse anzusehen sind, welche auf einer Verbindung von spezifischen Akteursmerkmalen, Akteurskonstellationen und Umfeldbedingungen beruhen, Iterationsschleifen unterliegen (u.a. durch Lernen, Rückkoppelungen und Aufbau von Vertrauen) und Teil eines umfassenderen Handlungs- sowie (im Falle von Unternehmen) Organisationskontextes sind. Das Akteurshandeln und die Interaktion von Akteuren sind dabei Ausgangspunkt für Emergenzen auf der Meso- und der Makroebene. Die Ergebnisse der Analysen der in dieser Arbeit enthaltenen fünf Fachbeiträge zeigen im Speziellen, dass der Ansatz von Herbert Simon bzw. der Carnegie-School eine geeignete theoretische Grundlage zur Erfassung einer prozessorientierten Mikrofundierung des Gegenstandsbereichs der Innovation darstellt und – bei geeigneter Ergänzung und Adaption an den jeweiligen Erkenntnisgegenstand – eine differenzierte Betrachtung unterschiedlicher Arten von Innovationsprozessen und deren akteursbasierten Grundlagen sowohl auf der individuellen Ebene als auch auf Ebene von Unternehmen ermöglicht. Zudem wird deutlich, dass der Ansatz von Herbert Simon bzw. der Carnegie-School mit dem Initiationsmodell einen zusätzlichen Aspekt in die Diskussion einbringt, welcher bislang wenig Aufmerksamkeit fand, jedoch konstitutiv für eine ökonomische Perspektive ist: die Analyse der Bestimmungsgrößen (und des Prozesses) der Entscheidung zur Innovation. Denn auch wenn das Verständnis der Prozesse bzw. der Determinanten der Erstellung, Umsetzung und Diffusion von Innovationen von grundlegender Bedeutung ist, ist letztendlich die Frage, warum und unter welchen Umständen Akteure sich für Innovationen entscheiden, ein zentraler Kernbereich einer ökonomischen Betrachtung. Die Ergebnisse der Arbeit sind auch für die praktische Wirtschaftspolitik von Bedeutung, insbesondere mit Blick auf Innovationsprozesse und Umweltwirkungen.