999 resultados para lineare Programmierung, zertifizierte Lösbarkeit, sichere Zielfunktionswertschranke, SMT Löser, ICP
Resumo:
La VMAT (Volumetric Modulated Arc Therapy) è una delle più recenti tecniche radioterapiche, in cui, oltre alla modulazione geometrica della fluenza del campo di radiazione come avviene nell’IMRT (Intensity Modulated Radiotherapy), sono variati durante il trattamento anche la velocità del gantry e il rateo di dose. La radiazione è erogata senza interruzioni lungo uno o più archi continui della testata dell’acceleratore, così da ridurre i tempi di trattamento in modo sostanziale rispetto all’IMRT. Nelle tecniche ad intensità modulata, ed in particolare nella VMAT, il lettino porta paziente modifica la distribuzione di dose durante gli irraggiamenti posteriori, riducendo quella al target e aumentando quella superficiale. Il presente lavoro di tesi, che ha proprio l’obiettivo di valutare questi aspetti dosimetrici in un’ottica pre-clinica, è stato svolto presso il Servizio di Fisica Sanitaria del Policlinico S.Orsola–Malpighi, Azienda Ospedaliero-Universitaria di Bologna. Le misure sono state effettuate presso le U.O. Radioterapia-Morganti e Radioterapia-Frezza f.f. della medesima Azienda Sanitaria, al fine di caratterizzare dal punto di vista dosimetrico il lettino di trattamento iBEAM evo dell’acceleratore lineare Synergy Elekta. L’attenuazione misurata in caso di incidenza perpendicolare del fascio sul lettino, in buon accordo con gli articoli di riferimento, è stata: (2.81±0.06)% per fotoni di energia di 6 MV, (1.81±0.10)% a 10 MV e (1.38±0.05)% a 15 MV. L’attenuazione massima misurata con fotoni di energia di 6 MV si è avvicinata al 4% negli irraggiamenti obliqui. Infine, è stato analizzato il confronto con statistica gamma fra distribuzione di dose pianificata e misurata prima e dopo aver modellizzato le caratteristiche del lettino nel software per l’elaborazione del piano di trattamento. Solo dopo tale operazione, i due casi VMAT analizzati (tumore dell’orofaringe e prostatico) superano i criteri più restrittivi e affidabili utilizzati nella pratica clinica.
Resumo:
In questo studio, un multi-model ensemble è stato implementato e verificato, seguendo una delle priorità di ricerca del Subseasonal to Seasonal Prediction Project (S2S). Una regressione lineare è stata applicata ad un insieme di previsioni di ensemble su date passate, prodotte dai centri di previsione mensile del CNR-ISAC e ECMWF-IFS. Ognuna di queste contiene un membro di controllo e quattro elementi perturbati. Le variabili scelte per l'analisi sono l'altezza geopotenziale a 500 hPa, la temperatura a 850 hPa e la temperatura a 2 metri, la griglia spaziale ha risoluzione 1 ◦ × 1 ◦ lat-lon e sono stati utilizzati gli inverni dal 1990 al 2010. Le rianalisi di ERA-Interim sono utilizzate sia per realizzare la regressione, sia nella validazione dei risultati, mediante stimatori nonprobabilistici come lo scarto quadratico medio (RMSE) e la correlazione delle anomalie. Successivamente, tecniche di Model Output Statistics (MOS) e Direct Model Output (DMO) sono applicate al multi-model ensemble per ottenere previsioni probabilistiche per la media settimanale delle anomalie di temperatura a 2 metri. I metodi MOS utilizzati sono la regressione logistica e la regressione Gaussiana non-omogenea, mentre quelli DMO sono il democratic voting e il Tukey plotting position. Queste tecniche sono applicate anche ai singoli modelli in modo da effettuare confronti basati su stimatori probabilistici, come il ranked probability skill score, il discrete ranked probability skill score e il reliability diagram. Entrambe le tipologie di stimatori mostrano come il multi-model abbia migliori performance rispetto ai singoli modelli. Inoltre, i valori più alti di stimatori probabilistici sono ottenuti usando una regressione logistica sulla sola media di ensemble. Applicando la regressione a dataset di dimensione ridotta, abbiamo realizzato una curva di apprendimento che mostra come un aumento del numero di date nella fase di addestramento non produrrebbe ulteriori miglioramenti.
Resumo:
Il lavoro di questa tesi è focalizzato sulla valutazione della sensibilità delle microonde rispetto a differenti idrometeore per le frequenze a 89 GHz e 150 GHz e nella banda di assorbimento del vapor d'acqua a 183.31 GHz. Il metodo di indagine consiste nell'utilizzo del modello di trasferimento radiativo RTTOV (Eyre, 1991) per simulare radianze dei canali dei sensori satellitari nelle microonde Advanced Microwave Sounding Unit-B (AMSU-B) e Microwave Humidity Sounder (MHS). Le simulazioni basate sul modello RTTOV si sono focalizzate su tre dataset indipendenti, forniti da ECMWF. Il primo passo tiene conto di una selezione di categorie dei profili atmosferici basato su una distinzione della fase delle idrometeore, LWP, IWP e WVP, con sottoclassi terra e oceano. La distinzione in diverse categorie permette di valutare la sensibilità di ciascuna frequenza utilizzata nelle simulazioni al variare del contenuto di acqua e ghiaccio. Un secondo approccio è usato per valutare la risposta di ciascuna frequenza nei casi di nevicate sulla terraferma. Questa indagine ha permesso lo sviluppo di un nuovo algoritmo prototipale per la stima dell'intensità di precipitazione nevosa basato su una serie di test a soglia e una equazione di combinazione lineare multipla che sfrutta una combinazione dei canali più sensibili alla snowfall: 150, 186 e 190 GHz. Una prima verifica su casi di studio pre-selezionati di snowstorm sembra fornire risultati promettenti. Infine è stato realizzato uno studio di sensibilità dell’algoritmo 183-WSL (Laviola and Levizzani, 2011) utilizzando le simulazioni di RTTOV con precipitazione/non precipitazione come predittori discreti e con le intensità di precipitazione come predittori continui. Le simulazioni RTTOV rivelano una sovrastima delle radianze in presenza di profili di pioggia e ciò potrebbe essere dovuto alle approssimazioni e parametrizzazioni adottate nel modello RTTOV-SCATT usato per la risoluzione dello scattering in presenza di precipitazione.
Resumo:
La presente tesi ha come obiettivo quello di sviluppare un modello per la gestione ottimizzata delle unità di generazione e di accumulo di una microrete elettrica. La tesi analizza, come caso studio di riferimento, una microrete contenente impianti di generazione da fonti rinnovabili, sistemi di accumulo a batteria (BES:Battery Energy System) e stazioni di ricarica per veicoli elettrici. In particolare le stazioni di ricarica sono a flusso bidirezionale, in grado di fornire servizi di tipo "grid-to-vehicle"(G2V) e "vehicle-to-grid" (V2G). Il modello consente di definire, come sistema di dispacciamento centrale, le potenze che le varie risorse distribuite devono erogare o assorbire nella rete nelle 24 ore successive. Il dispacciamento avviene mediante risoluzione di un problema di minimizzazione dei costi operativi e dell'energia prelevata dalla rete esterna. Il problema è stato formulato tramite l'approccio di programmazione stocastica lineare dove i parametri incerti del modello sono modellizzati tramite processi stocastici. L'implementazione del modello è stata effettuata tramite il software AIMMS, un programma di ottimizzazione che prevede al suo interno delle funzionalità specifiche per la programmazione stocastica
Resumo:
In questa tesi, viene illustrato un metodo risolutivo al problema dell’allocazione e schedulazione, su risorse eterogenee con capacità unaria rinnovabile e cumulativa non rinnovabile, di applicazioni multitask periodiche, con periodi in relazione armonica, strutturate in attività indipendenti o sottoposte a vincoli di precedenza e con durate dipendenti dalla specifica risorsa di allocazione. L’obiettivo è quello di fornire un’implementazione del modello in grado di gestire l’allocazione e la schedulazione di istanze (i.e. insieme di applicazioni) variabili, caratterizzate da una serie di parametri. La struttura implementativa, realizzata secondo la Logic-based Benders decomposition, prevede la suddivisione del problema in due moduli. Il primo in grado di generare un’allocazione e realizzato con tecniche di programmazione lineare intera mista, il secondo con lo scopo di controllare l’ammissibilità di tale allocazione attraverso una schedulazione ottima e realizzato mediante tecniche di programmazione a vincoli. Il meccanismo di comunicazione tra i due moduli avviene mediante vincoli lineari, denominati tagli di Benders, che vengono aggiunti dopo ogni iterazione del sistema. L’efficacia del modello sarà valutata confrontando i risultati ottenuti attraverso una serie di test, con i valori forniti da un metodo di allocazione e schedulazione alternativo.
Resumo:
High-resolution sedimentary records of major and minor elements (Al, Ba, Ca, Sr, Ti), total organic carbon (TOC), and profiles of pore water constituents (SO42-, CH4, Ca2+, Ba2+, Mg2+, alkalinity) were obtained for two gravity cores (core 755, 501 m water depth and core 214, 1686 m water depth) from the northwestern Black Sea. The records were examined in order to gain insight into the cycling of Ba in anoxic marine sediments characterized by a shallow sulfate-methane transition (SMT) as well as the applicability of barite as a primary productivity proxy in such a setting. The Ba records are strongly overprinted by diagenetic barite (BaSO4) precipitation and remobilization; authigenic Ba enrichments were found at both sites at and slightly above the current SMT. Transport reaction modeling was applied to simulate the migration of the SMT during the changing geochemical conditions after the Holocene seawater intrusion into the Black Sea. Based on this, sediment intervals affected by diagenetic Ba redistribution were identified. Results reveal that the intense overprint of Ba and Baxs (Ba excess above detrital average) strongly limits its correlation to primary productivity. These findings have implications for other modern and ancient anoxic basins, such as sections covering the Oceanic Anoxic Events for which Ba is frequently used as a primary productivity indicator. Our study also demonstrates the limitations concerning the use of Baxs as a tracer for downward migrations of the SMT: due to high sedimentation rates at the investigated sites, diagenetic barite fronts are buried below the SMT within a relatively short period. Thus, 'relict' barite fronts would only be preserved for a few thousands of years, if at all.
Resumo:
El concepto de Proteómica, acuñado en analogía al de Genómica, fue usado por primera vez por Marc Wilkins a mediados de los años 90 para describir al conjunto total de proteínas que se expresan por los genes de una célula, tejido u organismo. Anteriormente, a finales de los 80, el desarrollo de las técnicas de ionización suave, como la Ionización por Electrospray, ESI (Electrospray Ionization) o la Desorción Suave por Láser, SLD (Soft Laser Desorption), permitió ionizar grandes biomoléculas como los péptidos y proteínas manteniéndolas relativamente intactas. Esto sentó las bases de la espectrometría de masas aplicada a la proteómica. En la proteómica shotgun (el término inglés está muy asentado), el primer paso del experimento generalmente consiste en la digestión de las proteínas de la muestra en péptidos por acción de una enzima proteolítica como la tripsina. Esto incrementa notablmente el rendimiento en términos de número de proteínas que pueden ser identificadas en un sólo experimento comparado con los experimentos basados en gel. Sin embargo, tiene el coste asociado de provocar una gran complejidad de la mezcla de péptidos y el problema añadido de la inferencia de las proteínas originarias. Los péptidos son separados por cromatografía líquida e ionizados para entrar a continuación en el espectrómetro de masas donde son separados en función de la proporción entre su masa y su carga (m/z) y los valores obtenidos son registrados en un espectro MS1. En la espectrometría de masas en tándem (MS/MS), los péptidos con mayor intensidad son seleccionados para ser fragmentados de modo que se generan espectros MS/MS, colecciones de valores m/z y de intensidad para cada precursor y sus fragmentos...
Resumo:
1 OBJETIVOS Evaluar el impacto de las bajas temperaturas, la interacción entre P. fluorescens (Pf) y L. monocytogenes (Lm) en biofilms (BF) mixtos y la capacidad para persistir de Lm sobre (i) la capacidad de Lm para desarrollar BF; (ii) los parámetros estructurales de los BF formados; (iii) la respuesta de las células adheridas de Lm frente al tratamiento con quitosano; (iiii) y su capacidad para recuperarse tras el tratamiento, tanto a nivel de densidad celular como estructural. Además, se pretendió valorar el quitosano como agente de limpieza y desinfección de los BF en la industria alimentaria, profundizando en su impacto sobre la estructura. 2 METODOLOGÍA Para llevar a cabo estos objetivos se seleccionaron un total de 10 cepas de Lm (6 persistentes y 3 esporádicas aisladas por Ortiz y col. (2010) de una industria cárnica y la cepa Lm Scott A como referencia) y la cepa Pf ATCC 948TM para formar BF puros, de cada especie, y mixtos, de Pf y cada una de las cepas de Lm, iniciando los cultivos a un nivel de cada una de las bacterias de 104 UFC·ml-1. Para la formación de BF se empleó un sistema en batch, en el que cupones de vidrio desechables (22x22 mm) semisumergidos actuaron como soporte para la adhesión. Los BF se desarrollaron a 20°C (BF “templados”) y 4°C (BF “fríos”). Los tratamientos con quitosano al 1% (w/v) consistieron en la inmersión durante 1h. Para la recuperación, los cupones tratados se revitalizaron en medio fresco (Trytone Soya Broth, TSB) a 20°C/48h. La densidad celular adherida antes, después y durante la revitalización se determinó mediante siembra del BF residual recogido del cupón en medios generales, o selectivos en el caso de los BF mixtos. Para la determinación de la biomasa adherida mediante densitometría (λ=520-570 nm), los BF fueron teñidos con una solución al 1‰ de azul de coomassie. Para las observaciones de la estructura mediante microscopía confocal láser de barrido (CLSM) las muestras se tiñeron con diferentes fluorocromos, procesándose las imágenes obtenidas mediante el software Imaris 8.2. El tratamiento estadístico de los datos se hizo con el software Statgraphics Centurion...
Resumo:
Recent studies have suggested that the marine contribution of methane from shallow regions and melting marine terminating glaciers may have been underestimated. Here we report on methane sources and potential sinks associated with methane seeps in Cumberland Bay, South Georgia's largest fjord system. The average organic carbon content in the upper 8 meters of the sediment is around 0.65 wt.%; this observation combined with Parasound data suggest that the methane gas accumulations probably originate from peat-bearing sediments currently located several tens of meters below the seafloor. Only one of our cores indicates upward advection; instead most of the methane is transported via diffusion. Sulfate and methane flux estimates indicate that a large fraction of methane is consumed by anaerobic oxidation of methane (AOM). Carbon cycling at the sulfate-methane transition (SMT) results in a marked fractionation of the d13C-CH4 from an estimated source value of -65 per mil to a value as low as -96 per mil just below the SMT. Methane concentrations in sediments are high, especially close to the seepage sites (~40 mM); however, concentrations in the water column are relatively low (max. 58 nM) and can be observed only close to the seafloor. Methane is trapped in the lowermost water mass, however, measured microbial oxidation rates reveal very low activity with an average turnover of 3.1 years. We therefore infer that methane must be transported out of the bay in the bottom water layer. A mean sea-air flux of only 0.005 nM/m²/s confirms that almost no methane reaches the atmosphere.
Resumo:
The geochemical cycling of barium was investigated in sediments of pockmarks of the northern Congo Fan, characterized by surface and subsurface gas hydrates, chemosynthetic fauna, and authigenic carbonates. Two gravity cores retrieved from the so-called Hydrate Hole and Worm Hole pockmarks were examined using high-resolution pore-water and solid-phase analyses. The results indicate that, although gas hydrates in the study area are stable with respect to pressure and temperature, they are and have been subject to dissolution due to methane-undersaturated pore waters. The process significantly driving dissolution is the anaerobic oxidation of methane (AOM) above the shallowest hydrate-bearing sediment layer. It is suggested that episodic seep events temporarily increase the upward flux of methane, and induce hydrate formation close to the sediment surface. AOM establishes at a sediment depth where the upward flux of methane from the uppermost hydrate layer counterbalances the downward flux of seawater sulfate. After seepage ceases, AOM continues to consume methane at the sulfate/methane transition (SMT) above the hydrates, thereby driving the progressive dissolution of the hydrates "from above". As a result the SMT migrates downward, leaving behind enrichments of authigenic barite and carbonates that typically precipitate at this biogeochemical reaction front. Calculation of the time needed to produce the observed solid-phase barium enrichments above the present-day depths of the SMT served to track the net downward migration of the SMT and to estimate the total time of hydrate dissolution in the recovered sediments. Methane fluxes were higher, and the SMT was located closer to the sediment surface in the past at both sites. Active seepage and hydrate formation are inferred to have occurred only a few thousands of years ago at the Hydrate Hole site. By contrast, AOM-driven hydrate dissolution as a consequence of an overall net decrease in upward methane flux seems to have persisted for a considerably longer time at the Worm Hole site, amounting to a few tens of thousands of years.
Resumo:
Die hohen Leistungsansprüche an moderne Lagersysteme führen zu immer kürzeren Taktzeiten beim Warenumschlag, die auch von Regalbediengeräten (RBG) realisiert werden müssen. Um trotz der kurzen Umschlagzeiten eine schnelle und sichere Gutübergabe zu gewährleisten, muss innerhalb der Ausschwingzeit die Amplitude der Schwingungen des Lastaufnahmemittels vor dem Ein- beziehungsweise Auslagerungsvorgang weitgehend abgeklungen sein. Diese Wartezeiten beeinflussen die Taktzeit und damit die Umschlagleistung des RBG negativ. Ein möglicher Ansatz, die Ausschwingzeiten zu verkürzen, ist der Einsatz hochdämpfender Materialien, wie etwa Verbundwerkstoffe. Durch die erreichte Reduzierung der Schwingungsamplituden bei gleichzeitiger Erhöhung des Leichtbaugrades ist eine deutliche Effizienzsteigerung von RBG zu erwarten.
Resumo:
Der Stellenwert der Intralogistik ist in den vergangenen Jahren aufgrund eines zunehmend beschleunigten und globalen Marktes deutlich gestiegen. Die Intralogistik bietet Problemstellungen, deren Lösung respektive Lösungsunterstützung weiterer Forschung bedarf. Antwortmengenprogrammierung auf der anderen Seite bietet hervorragende Eigenschaften zur Lösung komplexer Probleme, deren Lösung eine enge Verknüpfung mit vorhandenem Wissen erfordert. In diesem Artikel wird das Paradigma der Antwortmengenprogrammierung mit den Problemstellungen der Intralogistik in einer Potenzialanalyse abgeglichen.
Resumo:
Det gemensamma intresset för konflikter grundade idén att studera väl ansedda ledares perspektiv på arbetsplatskonflikter och hur dessa ledare löser konflikter konstruktivt. I grunden finns en undran om väl ansedda ledare har förmågor som gör att de löser konflikter mer konstruktivt. Konflikter utgör en stor del av en ledares arbetstid. Konflikter kan förmodligen inte undvikas men hur konflikter hanteras är avgörande för att en organisation och dess anställda skall mogna och utvecklas. Det har utövats forskning inom konflikthantering utifrån ett ledarskapsperspektiv men de studierna har haft en kvantitativ ansats. Studiens syfte är att undersöka hur väl ansedda chefer ser på arbetsplatskonflikter och hur dessa chefer hanterar konflikter. Ett delsyfte är att erhålla kunskap om vilka metoder ansedda ledare använder i konflikthantering. För att besvara syftet har följande frågeställningar använts: Vilka typer av arbetsplatskonflikter uppstår i en organisation? Vad är avgörande om konflikter blir konstruktiva eller destruktiva? Vad har ledarskapet för inverkan på konflikthantering och hur ska ledaren ta sig an konflikter? Vilka förmågor och egenskaper har ledare som hanterar konflikter effektivt? Studien grundar sig på en kvalitativ ansats med semistrukturerade intervjuer som insamlingsmetod. Det införskaffade materialet kodades och tematiserades. Resultaten analyserades med hjälp av teoriramen. Slutligen användes Rahims (2002) teori om conflict management i diskussion då det i resultatet framkom stöd för modellen, dock med en utveckling vilket presenteras i slutsatsen. I studiens analys framkom att ledare som hanterar konflikter konstruktivt behärskar tre huvudområden. Dessa förmågor är människoorienterad, uppgiftsorienterad och lärande- och kulturorienterad. Väl ansedda ledare manövrerar emellan dessa förmågor beroende på situation. I studiens resultat framkom också att undvikande och dominant ledarskapsbeteende skapar barriärer i konflikthantering.
Resumo:
Landnutzungsänderungen sind eine wesentliche Ursache von Treibhausgasemissionen. Die Umwandlung von Ökosystemen mit permanenter natürlicher Vegetation hin zu Ackerbau mit zeitweise vegetationslosem Boden (z.B. nach der Bodenbearbeitung vor der Aussaat) führt häufig zu gesteigerten Treibhausgasemissionen und verminderter Kohlenstoffbindung. Weltweit dehnt sich Ackerbau sowohl in kleinbäuerlichen als auch in agro-industriellen Systemen aus, häufig in benachbarte semiaride bis subhumide Rangeland Ökosysteme. Die vorliegende Arbeit untersucht Trends der Landnutzungsänderung im Borana Rangeland Südäthiopiens. Bevölkerungswachstum, Landprivatisierung und damit einhergehende Einzäunung, veränderte Landnutzungspolitik und zunehmende Klimavariabilität führen zu raschen Veränderungen der traditionell auf Tierhaltung basierten, pastoralen Systeme. Mittels einer Literaturanalyse von Fallstudien in ostafrikanischen Rangelands wurde im Rahmen dieser Studie ein schematisches Modell der Zusammenhänge von Landnutzung, Treibhausgasemissionen und Kohlenstofffixierung entwickelt. Anhand von Satellitendaten und Daten aus Haushaltsbefragungen wurden Art und Umfang von Landnutzungsänderungen und Vegetationsveränderungen an fünf Untersuchungsstandorten (Darito/Yabelo Distrikt, Soda, Samaro, Haralo, Did Mega/alle Dire Distrikt) zwischen 1985 und 2011 analysiert. In Darito dehnte sich die Ackerbaufläche um 12% aus, überwiegend auf Kosten von Buschland. An den übrigen Standorten blieb die Ackerbaufläche relativ konstant, jedoch nahm Graslandvegetation um zwischen 16 und 28% zu, während Buschland um zwischen 23 und 31% abnahm. Lediglich am Standort Haralo nahm auch „bare land“, vegetationslose Flächen, um 13% zu. Faktoren, die zur Ausdehnung des Ackerbaus führen, wurden am Standort Darito detaillierter untersucht. GPS Daten und anbaugeschichtlichen Daten von 108 Feldern auf 54 Betrieben wurden in einem Geographischen Informationssystem (GIS) mit thematischen Boden-, Niederschlags-, und Hangneigungskarten sowie einem Digitales Höhenmodell überlagert. Multiple lineare Regression ermittelte Hangneigung und geographische Höhe als signifikante Erklärungsvariablen für die Ausdehnung von Ackerbau in niedrigere Lagen. Bodenart, Entfernung zum saisonalen Flusslauf und Niederschlag waren hingegen nicht signifikant. Das niedrige Bestimmtheitsmaß (R²=0,154) weist darauf hin, dass es weitere, hier nicht erfasste Erklärungsvariablen für die Richtung der räumlichen Ausweitung von Ackerland gibt. Streudiagramme zu Ackergröße und Anbaujahren in Relation zu geographischer Höhe zeigen seit dem Jahr 2000 eine Ausdehnung des Ackerbaus in Lagen unter 1620 müNN und eine Zunahme der Schlaggröße (>3ha). Die Analyse der phänologischen Entwicklung von Feldfrüchten im Jahresverlauf in Kombination mit Niederschlagsdaten und normalized difference vegetation index (NDVI) Zeitreihendaten dienten dazu, Zeitpunkte besonders hoher (Begrünung vor der Ernte) oder niedriger (nach der Bodenbearbeitung) Pflanzenbiomasse auf Ackerland zu identifizieren, um Ackerland und seine Ausdehnung von anderen Vegetationsformen fernerkundlich unterscheiden zu können. Anhand der NDVI Spektralprofile konnte Ackerland gut Wald, jedoch weniger gut von Gras- und Buschland unterschieden werden. Die geringe Auflösung (250m) der Moderate Resolution Imaging Spectroradiometer (MODIS) NDVI Daten führte zu einem Mixed Pixel Effect, d.h. die Fläche eines Pixels beinhaltete häufig verschiedene Vegetationsformen in unterschiedlichen Anteilen, was deren Unterscheidung beeinträchtigte. Für die Entwicklung eines Echtzeit Monitoring Systems für die Ausdehnung des Ackerbaus wären höher auflösende NDVI Daten (z.B. Multispektralband, Hyperion EO-1 Sensor) notwendig, um kleinräumig eine bessere Differenzierung von Ackerland und natürlicher Rangeland-Vegetation zu erhalten. Die Entwicklung und der Einsatz solcher Methoden als Entscheidungshilfen für Land- und Ressourcennutzungsplanung könnte dazu beitragen, Produktions- und Entwicklungsziele der Borana Landnutzer mit nationalen Anstrengungen zur Eindämmung des Klimawandels durch Steigerung der Kohlenstofffixierung in Rangelands in Einklang zu bringen.
Resumo:
In the past years, we could observe a significant amount of new robotic systems in science, industry, and everyday life. To reduce the complexity of these systems, the industry constructs robots that are designated for the execution of a specific task such as vacuum cleaning, autonomous driving, observation, or transportation operations. As a result, such robotic systems need to combine their capabilities to accomplish complex tasks that exceed the abilities of individual robots. However, to achieve emergent cooperative behavior, multi-robot systems require a decision process that copes with the communication challenges of the application domain. This work investigates a distributed multi-robot decision process, which addresses unreliable and transient communication. This process composed by five steps, which we embedded into the ALICA multi-agent coordination language guided by the PROViDE negotiation middleware. The first step encompasses the specification of the decision problem, which is an integral part of the ALICA implementation. In our decision process, we describe multi-robot problems by continuous nonlinear constraint satisfaction problems. The second step addresses the calculation of solution proposals for this problem specification. Here, we propose an efficient solution algorithm that integrates incomplete local search and interval propagation techniques into a satisfiability solver, which forms a satisfiability modulo theories (SMT) solver. In the third decision step, the PROViDE middleware replicates the solution proposals among the robots. This replication process is parameterized with a distribution method, which determines the consistency properties of the proposals. In a fourth step, we investigate the conflict resolution. Therefore, an acceptance method ensures that each robot supports one of the replicated proposals. As we integrated the conflict resolution into the replication process, a sound selection of the distribution and acceptance methods leads to an eventual convergence of the robot proposals. In order to avoid the execution of conflicting proposals, the last step comprises a decision method, which selects a proposal for implementation in case the conflict resolution fails. The evaluation of our work shows that the usage of incomplete solution techniques of the constraint satisfaction solver outperforms the runtime of other state-of-the-art approaches for many typical robotic problems. We further show by experimental setups and practical application in the RoboCup environment that our decision process is suitable for making quick decisions in the presence of packet loss and delay. Moreover, PROViDE requires less memory and bandwidth compared to other state-of-the-art middleware approaches.