850 resultados para Agent searching


Relevância:

20.00% 20.00%

Publicador:

Resumo:

Reasoning under uncertainty is a human capacity that in software system is necessary and often hidden. Argumentation theory and logic make explicit non-monotonic information in order to enable automatic forms of reasoning under uncertainty. In human organization Distributed Cognition and Activity Theory explain how artifacts are fundamental in all cognitive process. Then, in this thesis we search to understand the use of cognitive artifacts in an new argumentation framework for an agent-based artificial society.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

Traditional software engineering approaches and metaphors fall short when applied to areas of growing relevance such as electronic commerce, enterprise resource planning, and mobile computing: such areas, in fact, generally call for open architectures that may evolve dynamically over time so as to accommodate new components and meet new requirements. This is probably one of the main reasons that the agent metaphor and the agent-oriented paradigm are gaining momentum in these areas. This thesis deals with the engineering of complex software systems in terms of the agent paradigm. This paradigm is based on the notions of agent and systems of interacting agents as fundamental abstractions for designing, developing and managing at runtime typically distributed software systems. However, today the engineer often works with technologies that do not support the abstractions used in the design of the systems. For this reason the research on methodologies becomes the basic point in the scientific activity. Currently most agent-oriented methodologies are supported by small teams of academic researchers, and as a result, most of them are in an early stage and still in the first context of mostly \academic" approaches for agent-oriented systems development. Moreover, such methodologies are not well documented and very often defined and presented only by focusing on specific aspects of the methodology. The role played by meta- models becomes fundamental for comparing and evaluating the methodologies. In fact a meta-model specifies the concepts, rules and relationships used to define methodologies. Although it is possible to describe a methodology without an explicit meta-model, formalising the underpinning ideas of the methodology in question is valuable when checking its consistency or planning extensions or modifications. A good meta-model must address all the different aspects of a methodology, i.e. the process to be followed, the work products to be generated and those responsible for making all this happen. In turn, specifying the work products that must be developed implies dening the basic modelling building blocks from which they are built. As a building block, the agent abstraction alone is not enough to fully model all the aspects related to multi-agent systems in a natural way. In particular, different perspectives exist on the role that environment plays within agent systems: however, it is clear at least that all non-agent elements of a multi-agent system are typically considered to be part of the multi-agent system environment. The key role of environment as a first-class abstraction in the engineering of multi-agent system is today generally acknowledged in the multi-agent system community, so environment should be explicitly accounted for in the engineering of multi-agent system, working as a new design dimension for agent-oriented methodologies. At least two main ingredients shape the environment: environment abstractions - entities of the environment encapsulating some functions -, and topology abstractions - entities of environment that represent the (either logical or physical) spatial structure. In addition, the engineering of non-trivial multi-agent systems requires principles and mechanisms for supporting the management of the system representation complexity. These principles lead to the adoption of a multi-layered description, which could be used by designers to provide different levels of abstraction over multi-agent systems. The research in these fields has lead to the formulation of a new version of the SODA methodology where environment abstractions and layering principles are exploited for en- gineering multi-agent systems.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

Web is constantly evolving, thanks to the 2.0 transition, HTML5 new features and the coming of cloud-computing, the gap between Web and traditional desktop applications is tailing off. Web-apps are more and more widespread and bring several benefits compared to traditional ones. On the other hand reference technologies, JavaScript primarly, are not keeping pace, so a paradim shift is taking place in Web programming, and so many new languages and technologies are coming out. First objective of this thesis is to survey the reference and state-of-art technologies for client-side Web programming focusing in particular on what concerns concurrency and asynchronous programming. Taking into account the problems that affect existing technologies, we finally design simpAL-web, an innovative approach to tackle Web-apps development, based on the Agent-oriented programming abstraction and the simpAL language. == Versione in italiano: Il Web è in continua evoluzione, grazie alla transizione verso il 2.0, alle nuove funzionalità introdotte con HTML5 ed all’avvento del cloud-computing, il divario tra le applicazioni Web e quelle desktop tradizionali va assottigliandosi. Le Web-apps sono sempre più diffuse e presentano diversi vantaggi rispetto a quelle tradizionali. D’altra parte le tecnologie di riferimento, JavaScript in primis, non stanno tenendo il passo, motivo per cui la programmazione Web sta andando incontro ad un cambio di paradigma e nuovi linguaggi e tecnologie stanno spuntando sempre più numerosi. Primo obiettivo di questa tesi è di passare al vaglio le tecnologie di riferimento ed allo stato dell’arte per quel che riguarda la programmmazione Web client-side, porgendo particolare attenzione agli aspetti inerenti la concorrenza e la programmazione asincrona. Considerando i principali problemi di cui soffrono le attuali tecnologie passeremo infine alla progettazione di simpAL-web, un approccio innovativo con cui affrontare lo sviluppo di Web-apps basato sulla programmazione orientata agli Agenti e sul linguaggio simpAL.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

La crescente disponibilità di dispositivi meccanici e -soprattutto - elettronici le cui performance aumentano mentre il loro costo diminuisce, ha permesso al campo della robotica di compiere notevoli progressi. Tali progressi non sono stati fatti unicamente per ciò che riguarda la robotica per uso industriale, nelle catene di montaggio per esempio, ma anche per quella branca della robotica che comprende i robot autonomi domestici. Questi sistemi autonomi stanno diventando, per i suddetti motivi, sempre più pervasivi, ovvero sono immersi nello stesso ambiente nel quale vivono gli essere umani, e interagiscono con questi in maniera proattiva. Essi stanno compiendo quindi lo stesso percorso che hanno attraversato i personal computer all'incirca 30 anni fa, passando dall'essere costosi ed ingombranti mainframe a disposizione unicamente di enti di ricerca ed università, ad essere presenti all'interno di ogni abitazione, per un utilizzo non solo professionale ma anche di assistenza alle attività quotidiane o anche di intrattenimento. Per questi motivi la robotica è un campo dell'Information Technology che interessa sempre più tutti i tipi di programmatori software. Questa tesi analizza per prima cosa gli aspetti salienti della programmazione di controllori per robot autonomi (ovvero senza essere guidati da un utente), quindi, come l'approccio basato su agenti sia appropriato per la programmazione di questi sistemi. In particolare si mostrerà come un approccio ad agenti, utilizzando il linguaggio di programmazione Jason e quindi l'architettura BDI, sia una scelta significativa, dal momento che il modello sottostante a questo tipo di linguaggio è basato sul ragionamento pratico degli esseri umani (Human Practical Reasoning) e quindi è adatto alla implementazione di sistemi che agiscono in maniera autonoma. Dato che le possibilità di utilizzare un vero e proprio sistema autonomo per poter testare i controllori sono ridotte, per motivi pratici, economici e temporali, mostreremo come è facile e performante arrivare in maniera rapida ad un primo prototipo del robot tramite l'utilizzo del simulatore commerciale Webots. Il contributo portato da questa tesi include la possibilità di poter programmare un robot in maniera modulare e rapida per mezzo di poche linee di codice, in modo tale che l'aumento delle funzionalità di questo risulti un collo di bottiglia, come si verifica nella programmazione di questi sistemi tramite i classici linguaggi di programmazione imperativi. L'organizzazione di questa tesi prevede un capitolo di background nel quale vengono riportare le basi della robotica, della sua programmazione e degli strumenti atti allo scopo, un capitolo che riporta le nozioni di programmazione ad agenti, tramite il linguaggio Jason -quindi l'architettura BDI - e perché tale approccio è adatto alla programmazione di sistemi di controllo per la robotica. Successivamente viene presentata quella che è la struttura completa del nostro ambiente di lavoro software che comprende l'ambiente ad agenti e il simulatore, quindi nel successivo capitolo vengono mostrate quelle che sono le esplorazioni effettuate utilizzando Jason e un approccio classico (per mezzo di linguaggi classici), attraverso diversi casi di studio di crescente complessità; dopodiché, verrà effettuata una valutazione tra i due approcci analizzando i problemi e i vantaggi che comportano questi. Infine, la tesi terminerà con un capitolo di conclusioni e di riflessioni sulle possibili estensioni e lavori futuri.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

La presente tesi è dedicata al riuso nel software. Eccettuata un'introduzione organica al tema, l'analisi è a livello dei meccanismi offerti dai linguaggi di programmazione e delle tecniche di sviluppo, con speciale attenzione rivolta al tema della concorrenza. Il primo capitolo fornisce un quadro generale nel quale il riuso del software è descritto, assieme alle ragioni che ne determinano l'importanza e ai punti cruciali relativi alla sua attuazione. Si individuano diversi livelli di riuso sulla base dell'astrazione e degli artefatti in gioco, e si sottolinea come i linguaggi contribuiscano alla riusabilità e alla realizzazione del riuso. In seguito, viene esplorato, con esempi di codice, il supporto al riuso da parte del paradigma ad oggetti, in termini di incapsulamento, ereditarietà, polimorfismo, composizione. La trattazione prosegue analizzando differenti feature – tipizzazione, interfacce, mixin, generics – offerte da vari linguaggi di programmazione, mostrando come esse intervengano sulla riusabilità dei componenti software. A chiudere il capitolo, qualche parola contestualizzata sull'inversione di controllo, la programmazione orientata agli aspetti, e il meccanismo della delega. Il secondo capitolo abbraccia il tema della concorrenza. Dopo aver introdotto l'argomento, vengono approfonditi alcuni significativi modelli di concorrenza: programmazione multi-threaded, task nel linguaggio Ada, SCOOP, modello ad Attori. Essi vengono descritti negli elementi fondamentali e ne vengono evidenziati gli aspetti cruciali in termini di contributo al riuso, con esempi di codice. Relativamente al modello ad Attori, viene presentata la sua implementazione in Scala/Akka come caso studio. Infine, viene esaminato il problema dell'inheritance anomaly, sulla base di esempi e delle tre classi principali di anomalia, e si analizza la suscettibilità del supporto di concorrenza di Scala/Akka a riscontrare tali problemi. Inoltre, in questo capitolo si nota come alcuni aspetti relativi al binomio riuso/concorrenza, tra cui il significato profondo dello stesso, non siano ancora stati adeguatamente affrontati dalla comunità informatica. Il terzo e ultimo capitolo esordisce con una panoramica dell'agent-oriented programming, prendendo il linguaggio simpAL come riferimento. In seguito, si prova ad estendere al caso degli agenti la nozione di riuso approfondita nei capitoli precedenti.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

Auf der Suche nach dem „vulnerablen Plaque“, der ein besonders hohes Risiko für Schlaganfall und Herzinfarkt besitzt, findet momentan ein Paradigmenwechsel statt. Anstelle des klassischen Stenosegrades gewinnt die Darstellung der Plaquemorphologie zunehmend an Bedeutung. Fragestellung: Ziel dieser Arbeit ist es, die Fähigkeiten eines modernen 16-Kanal-CT hinsichtlich der Auflösung des Plaqueinneren bei Atherosklerose der Karotiden zu untersuchen und den Halo-Effekt in vivo zu erforschen. Methoden: Für die Studie wurden von 28 Patienten mit bekannter, symptomatischer Karotisstenose vor der gefäßchirurgischen Intervention CT-Bilder angefertigt, die nachfolgend mit der Histologie der Gefäßpräparate korreliert wurden. Auf diese Weise konnten die mikroskopisch identifizierten Lipidkerne im CT-Bild eingezeichnet und hinsichtlich ihrer Fläche und Dichtewerte evaluiert werden. In einem weiteren Schritt führten 2 Radiologen in Unkenntnis der histologischen Ergebnisse unabhängig voneinander eine Befundung durch und markierten mutmaßliche Lipidkerne. Zudem wurden sowohl in der verblindeten als auch in der histologiekontrollierten Auswertung die Plaquetypen anhand der AHA-Klassifikation bestimmt. Ein dritter Befundungsdurchgang geschah unter Zuhilfenahme einer von uns entwickelten Software, die CT-Bilder farbkodiert um die Detektion der Lipidkerne zu verbessern. Anhand der Farbkodierung wurde zudem ein Indexwert errechnet, der eine objektive Zuordnung zur AHA-Klassifikation ermöglichen sollte. Von 6 Patienten wurde zusätzlich noch eine native CT-Aufnahme angefertigt, die durch MPR exakt an die Kontrastmittelserie angeglichen wurde. Auf diese Weise konnte der Halo-Effekt, der die Plaqueanteile im lumennahen Bereich überstrahlt, quantifiziert und charakterisiert werden. Ergebnisse: Während die Einstufung in die AHA-Klassifikation sowohl durch den Befunder als auch durch den Softwarealgorithmus eine hohe Korrelation mit der Histologie aufweist (Typ IV/Va: 89 %, Typ Vb: 70 %, Typ Vc: 89 %, Typ VI: 55 %), ist die Detektion der Lipidkerne in beiden Fällen nicht ausreichend gut und die Befunderabhängigkeit zu groß (Cohens Kappa: 18 %). Eine Objektivierung der AHA-Klassifikation der Plaques durch Indexberechnung nach Farbkodierung scheint möglich, wenn auch dem Befunder nicht überlegen. Die fibröse Kappe kann nicht abgegrenzt werden, da Überstrahlungseffekte des Kontrastmittels dessen HU-Werte verfälschen. Dieser Halo-Effekt zeigte sich im Median 1,1 mm breit mit einer Standardabweichung von 0,38 mm. Eine Abhängigkeit von der Kontrastmitteldichte im Gefäßlumen konnte dabei nicht nachgewiesen werden. Der Halo-Effekt fiel im Median um -106 HU/mm ab, bei einer Standardabweichung von 33 HU/mm. Schlussfolgerung: Die CT-Technologie zeigt sich, was die Darstellung von einzelnen Plaquekomponenten angeht, den bekannten Fähigkeiten der MRT noch unterlegen, insbesondere in Bezug auf die fibröse Kappe. Ihre Fähigkeiten liegen bisher eher in der Einstufung von Plaques in eine grobe Klassifikation, angelehnt an die der AHA. Die klinische Relevanz dessen jedoch gilt es in Zukunft in größeren Studien weiter zu untersuchen. Auch lässt die Weiterentwicklung der Computertomographie auf eine zukünftig höhere Auflösung der Plaquemorphologie hoffen.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

Maligne Melanome sind gegenüber Chemotherapeutika relativ resistent. Das methylierende Alkylanz Temozolomid sowie das chlorethylierende und DNA-Interstrand Crosslink (ICL) bildende Alkylanz Fotemustin kommen bei der Behandlung des malignen Melanoms als Mittel erster Wahl zum Einsatz. In der vorliegenden Arbeit konnte das erste Mal nachgewiesen werden, dass die zytotoxische Wirkung von Temozolomid und Fotemustin in Melanomzellen durch Apoptose vermittelt wird. Unter Verwendung klinisch relevanter Dosen der beiden Alkylantien konnte die Induktion von Apoptose durch vier unabhängige Methoden (Bestimmung der SubG1-Fraktion und der Apoptose- / Nekrose-Frequenz, Aktivierung der Effektorcaspasen-3 und -7 sowie Spaltung von PARP-1) nachgewiesen werden. Die Alkylierungen an der O6-Position des Guanins, welche durch beide Agenzien induziert werden, sind auch in Melanomzellen die wichtigsten Zytotoxizität-bewirkenden Läsionen in der DNA, und die O6-Methylguanin-DNA-Methyltransferase (MGMT) ist folglich ein herausragender Resistenzmarker. Eine der verwendeten Zelllinien (D05) exprimierte p53-Wildtypprotein. Diese Zelllinie war resistenter als alle anderen Zelllinien gegenüber Temozolomid und Fotemustin. Dies weist darauf hin, dass p53 nicht die Apoptoseinduktion in Melanomzellen verstärkt. Die Prozessierung des O6MeG erfolgt über die Mismatch-Reparatur (MMR) unter Generierung von DNA-Doppelstrangbrüchen (DSBs). Die Untersuchung der durch Temozolomid induzierten DSBs, nachgewiesen durch gammaH2AX-Induktion, korrelierte direkt mit der apoptotischen Antwort von Melanomzelllinien und DSBs können somit als eine entscheidende apoptoseauslösende Größe angesehen werden. Eine Resistenz gegenüber dem methylierenden Temozolomid in der Zelllinie MZ7 konnte auf einen Defekt in der MMR-Schadenserkennung auf der Ebene des MutSalpha-Komplexes zurückgeführt werden. Dieser Defekt hatte keinen Einfluss auf die Fotemustin-vermittelte Apoptoseinduktion. Neben MGMT konnte somit die MMR als Resistenzfaktor gegenüber methylierenden Agenzien in Melanomen identifiziert werden. Die Fotemustin-induzierte Apoptose wurde in Melanomzelllinien im Detail untersucht. Es konnte erstmals gezeigt werden, dass Fotemustin-bedingte ICLs in Zellen einen G2/M-Arrest im Behandlungszyklus induzieren. Wie anhand G1-arretierter Zellen nachgewiesen werden konnte, war das Durchlaufen der DNA-Replikation vor Erreichen des Arrests für die Induktion der Apoptose notwendig. Die Prozessierung von ICLs ist im Vergleich zu Methylierungen der DNA deutlich komplexer. Dies könnte erklären, warum in Melanomzellen die durch gammaH2AX-Induktion repräsentierten DSBs nicht mit der Sensitivität der einzelnen Zelllinien korreliert. Die Untersuchung unterschiedlich sensitiver Zelllinien zeigte ein vergleichbares Schadensniveau an ICLs und eine ebenso vergleichbare initiale Prozessierung derselben unter Generierung von DSBs. Die Prozessierung dieser sekundären Läsionen, welche anhand der Abnahme von gammaH2AX-Foci untersucht wurde, war hingegen in der sensitiveren Melanomzelllinie deutlich weniger effektiv. Es konnte weiterhin nachgewiesen werden, dass eine uneffektive Prozessierung der sekundären Läsionen einhergeht mit einer verstärkten und länger anhaltenden Aktivierung der in der DSB-Detektion beteiligten Kinase ATM und der Checkpoint Kinase 1. Es wäre daher denkbar, dass eine verstärkte Aktivität dieser Kinasen proapoptotische Signale vermittelt. Unterschiede in der Prozessierung der sekundären Läsionen könnten somit ein wichtiger Marker der ICL-induzierten Apoptose darstellen. Des weitern konnte nachgewiesen werden, dass nach Fotemustingabe die mitochondrial-vermittelte Apoptose einen effektiven Exekutionsweg in Melanomen darstellt. Während Cytochrom C-Freigabe, Bcl-2-Abnahme an den Mitochondrien, Bax-Rekrutierung und Caspase-9 Aktivität nachgewiesen werden konnten, wurden keine Hinweise auf eine Fas-Rezeptor-vermittelte Apoptose gefunden. Die Unfähigkeit, Rezeptor-vermittelte Apoptose zu unterlaufen, könnte die Bedeutungslosigkeit des p53-Gens in Melanomen begründen, da gerade dieser Weg in der Alkylantien-induzierten Apoptose in anderen Zellsystemen eine große Relevanz besitzt. Bei der Suche nach einem alternativen proapoptotischen Signalweg konnten Hinweise für die Beteiligung des Rb/E2F-1-Wegs, welcher über p73 agiert, in einer p53-mutierten Melanomzelllinie gefunden werden. Einen Einfluss der Proteine Survivin und XIAP als Resistenzfaktoren auf die Fotemustin-induzierte Apoptose wurde hingegen nicht nachgewiesen.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

Mainstream hardware is becoming parallel, heterogeneous, and distributed on every desk, every home and in every pocket. As a consequence, in the last years software is having an epochal turn toward concurrency, distribution, interaction which is pushed by the evolution of hardware architectures and the growing of network availability. This calls for introducing further abstraction layers on top of those provided by classical mainstream programming paradigms, to tackle more effectively the new complexities that developers have to face in everyday programming. A convergence it is recognizable in the mainstream toward the adoption of the actor paradigm as a mean to unite object-oriented programming and concurrency. Nevertheless, we argue that the actor paradigm can only be considered a good starting point to provide a more comprehensive response to such a fundamental and radical change in software development. Accordingly, the main objective of this thesis is to propose Agent-Oriented Programming (AOP) as a high-level general purpose programming paradigm, natural evolution of actors and objects, introducing a further level of human-inspired concepts for programming software systems, meant to simplify the design and programming of concurrent, distributed, reactive/interactive programs. To this end, in the dissertation first we construct the required background by studying the state-of-the-art of both actor-oriented and agent-oriented programming, and then we focus on the engineering of integrated programming technologies for developing agent-based systems in their classical application domains: artificial intelligence and distributed artificial intelligence. Then, we shift the perspective moving from the development of intelligent software systems, toward general purpose software development. Using the expertise maturated during the phase of background construction, we introduce a general-purpose programming language named simpAL, which founds its roots on general principles and practices of software development, and at the same time provides an agent-oriented level of abstraction for the engineering of general purpose software systems.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

Partendo dal campione di AGN presente nella survey di XMM-COSMOS, abbiamo cercato la sua controparte ottica nel database DR10 della Sloan Digital Sky Survey (SDSS), ed il match ha portato ad una selezione di 200 oggetti, tra cui stelle, galassie e quasar. A partire da questo campione, abbiamo selezionato tutti gli oggetti con un redshift z<0.86 per limitare l’analisi agli AGN di tipo 2, quindi siamo giunti alla selezione finale di un campione di 30 sorgenti. L’analisi spettrale è stata fatta tramite il task SPECFIT, presente in IRAF. Abbiamo creato due tipi di modelli: nel primo abbiamo considerato un’unica componente per ogni riga di emissione, nel secondo invece è stata introdotta un’ulteriore com- ponente limitando la FWHM della prima ad un valore inferiore a 500 km\s. Le righe di emissione di cui abbiamo creato un modello sono le seguenti: Hβ, [NII]λλ 6548,6581, Hα, [SII]λλ 6716,6731 e [OIII]λλ 4959,5007. Nei modelli costruiti abbiamo tenuto conto della fisica atomica per quel che riguarda i rapporti dei flussi teorici dei doppietti dell’azoto e dell’ossigeno, fissandoli a 1:3 per entrambi; nel caso del modello ad una componente abbiamo fissato le FWHM delle righe di emissione; mentre nel caso a due componenti abbiamo fissato le FWHM delle componenti strette e larghe, separatamente. Tenendo conto del chi-quadro ottenuto da ogni fit e dei residui, è stato possibile scegliere tra i due modelli per ogni sorgente. Considerato che la nostra attenzione è focalizzata sulla cinematica dell’ossigeno, abbiamo preso in considerazione solo le sorgenti i cui spettri mostravano la riga suddetta, cioè 25 oggetti. Su questa riga è stata fatta un’analisi non parametrica in modo da utilizzare il metodo proposto da Harrison et al. (2014) per caratterizzare il profilo di riga. Sono state determinate quantità utili come il 2 e il 98 percentili, corrispondenti alle velocità massime proiettate del flusso di materia, e l’ampiezza di riga contenente l’80% dell’emissione. Per indagare sull’eventuale ruolo che ha l’AGN nel guidare questi flussi di materia verso l’esterno, abbiamo calcolato la massa del gas ionizzato presente nel flusso e il tasso di energia cinetica, tenendo conto solo delle componenti larghe della riga di [OIII] λ5007. Per la caratterizzazione energetica abbiamo considerato l’approccio di Cano-Diaz et al (2012) e di Heckman (1990) in modo da poter ottenere un limite inferiore e superiore della potenza cinetica, adottando una media geometrica tra questi due come valore indicativo dell’energetica coinvolta. Confrontando la potenza del flusso di gas con la luminosità bolometrica dell’AGN, si è trovato che l’energia cinetica del flusso di gas è circa lo 0.3-30% della luminosità dell’AGN, consistente con i modelli che considerano l’AGN come principale responsabile nel guidare questi flussi di gas.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

The postharvest phase has been considered an environment very suitable for successful application of biological control agents (BCAs). However, the tri-interaction between fungal pathogen, host (fruit) and antagonist is influenced by several parameters such as temperature, oxidative stresses, oxygen composition, water activity, etc. that could be determining for the success of biocontrol. Knowledge of the modes of action of BCAs is essential in order to enhance their viability and increase their potentialities in disease control. The thesis focused on the possibility to explain the modes of action of a biological control agent (BCA): Aureobasidium pullulans, in particular the strains L1 and L8, control effective against fruit postharvest fungal pathogen. In particular in this work were studied the different modes of action of BCA, such as: i) the ability to produce volatile organic compounds (VOCs), identified by SPME- gas chromatography-mass spectrometry (GC-MS) and tested by in vitro and in vivo assays against Penicillium spp., Botrytis cinerea, Colletotrichum acutatum; ii) the ability to produce lytic enzymes (exo and endo chitinase and β-1,3-glucanase) tested against Monilinia laxa, causal agent of brown rot of stone fruits. L1 and L8 lytic enzymes were also evaluated through their relative genes by molecular tools; iii) the competition for space and nutrients, such as sugars (sucrose, glucose and fructose) and iron; the latter induced the production of siderophores, molecules with high affinity for iron chelation. A molecular investigation was carried out to better understand the gene regulation strictly correlated to the production of these chelating molucules. The competition for space against M. laxa was verified by electron microscopy techniques; iv) a depth bibliographical analysis on BCAs mechanisms of action and their possible combination with physical and chemical treatments was conducted.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

In this thesis, the author presents a query language for an RDF (Resource Description Framework) database and discusses its applications in the context of the HELM project (the Hypertextual Electronic Library of Mathematics). This language aims at meeting the main requirements coming from the RDF community. in particular it includes: a human readable textual syntax and a machine-processable XML (Extensible Markup Language) syntax both for queries and for query results, a rigorously exposed formal semantics, a graph-oriented RDF data access model capable of exploring an entire RDF graph (including both RDF Models and RDF Schemata), a full set of Boolean operators to compose the query constraints, fully customizable and highly structured query results having a 4-dimensional geometry, some constructions taken from ordinary programming languages that simplify the formulation of complex queries. The HELM project aims at integrating the modern tools for the automation of formal reasoning with the most recent electronic publishing technologies, in order create and maintain a hypertextual, distributed virtual library of formal mathematical knowledge. In the spirit of the Semantic Web, the documents of this library include RDF metadata describing their structure and content in a machine-understandable form. Using the author's query engine, HELM exploits this information to implement some functionalities allowing the interactive and automatic retrieval of documents on the basis of content-aware requests that take into account the mathematical nature of these documents.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

Quando si parla di architetture di controllo in ambito Web, il Modello ad Eventi è indubbiamente quello più diffuso e adottato. L’asincronicità e l’elevata interazione con l’utente sono caratteristiche tipiche delle Web Applications, ed un architettura ad eventi, grazie all’adozione del suo tipico ciclo di controllo chiamato Event Loop, fornisce un'astrazione semplice ma sufficientemente espressiva per soddisfare tali requisiti. La crescita di Internet e delle tecnologie ad esso associate, assieme alle recenti conquiste in ambito di CPU multi-core, ha fornito terreno fertile per lo sviluppo di Web Applications sempre più complesse. Questo aumento di complessità ha portato però alla luce alcuni limiti del modello ad eventi, ancora oggi non del tutto risolti. Con questo lavoro si intende proporre un differente approccio a questa tipologia di problemi, che superi i limiti riscontrati nel modello ad eventi proponendo un architettura diversa, nata in ambito di IA ma che sta guadagno popolarità anche nel general-purpose: il Modello ad Agenti. Le architetture ad agenti adottano un ciclo di controllo simile all’Event Loop del modello ad eventi, ma con alcune profonde differenze: il Control Loop. Lo scopo di questa tesi sarà dunque approfondire le due tipologie di architetture evidenziandone le differenze, mostrando cosa significa affrontare un progetto e lo sviluppo di una Web Applications avendo tecnologie diverse con differenti cicli di controllo, mettendo in luce pregi e difetti dei due approcci.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

In this thesis, we propose a novel approach to model the diffusion of residential PV systems. For this purpose, we use an agent-based model where agents are the families living in the area of interest. The case study is the Emilia-Romagna Regional Energy plan, which aims to increase the produc- tion of electricity from renewable energy. So, we study the microdata from the Survey on Household Income and Wealth (SHIW) provided by Bank of Italy in order to obtain the characteristics of families living in Emilia-Romagna. These data have allowed us to artificial generate families and reproduce the socio-economic aspects of the region. The families generated by means of a software are placed on the virtual world by associating them with the buildings. These buildings are acquired by analysing the vector data of regional buildings made available by the region. Each year, the model determines the level of diffusion by simulating the installed capacity. The adoption behaviour is influenced by social interactions, household’s economic situation, the environmental benefits arising from the adoption and the payback period of the investment.