854 resultados para Machine scheduling


Relevância:

20.00% 20.00%

Publicador:

Resumo:

In piattaforme di Stream Processing è spesso necessario eseguire elaborazioni differenziate degli stream di input. Questa tesi ha l'obiettivo di realizzare uno scheduler in grado di attribuire priorità di esecuzione differenti agli operatori deputati all'elaborazione degli stream.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

Le reti ottiche, grazie alla loro elevata capacità, hanno acquisito sempre maggiore importanza negli ultimi anni, sia per via del crescente volume di dati scambiati, legato soprattutto alla larga diffusione di Internet, sia per la necessità di comunicazioni in tempo reale. Dati i (relativamente) lunghi tempi di adattamento, questa tecnologia nativamente non è quella ottimale per il trasporto di un traffico a burst, tipico delle telecomunicazioni odierne. Le reti ibride cercano, quindi, di coniugare al meglio le potenzialità della commutazione ottica di circuito e della commutazione ottica a pacchetto. In questo lavoro, in particolare, ci si è concentrati su un'architettura di rete ibrida denominata 3LIHON (3-Level Integrated Hybrid Optical Network). Essa prevede tre distinti livelli di qualità di servizio (QoS) per soddisfare differenti necessità: - Guaranteed Service Type (GST): simile ad un servizio a commutazione di circuito, non ammette perdita di dati. - Statistically Multiplexed Real Time (SM/RT): simile ad un servizio a commutazione di pacchetto, garantisce ritardo nullo o molto basso all'interno della rete, permette un piccolo tasso di perdita di dati e ammette la contesa della banda. - Statistically Multiplexed Best Effort (SM/BE): simile ad un servizio a commutazione di pacchetto, non garantisce alcun ritardo tra i nodi ed ammette un basso tasso di perdita dei dati. In un nodo 3LIHON, il traffico SM/BE impossibile da servire, a causa ad es. dell'interruzione da parte di pacchetti aventi un livello di QoS più prioritario, viene irrimediabilmente perso. Questo implica anche lo spreco del tempo e delle risorse impiegati per trasmettere un pacchetto SM/BE fino alla sua interruzione. Nel presente lavoro si è cercato di limitare, per quanto possibile, questo comportamento sconveniente, adottando e comparando tre strategie, che hanno portato alla modifica del nodo 3LIHON standard ed alla nascita di tre sue varianti.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

Zahnverlust zu Lebzeiten („antemortem tooth loss“, AMTL) kann als Folge von Zahnerkrankungen, Traumata, Zahnextraktionen oder extremer kontinuierlicher Eruption sowie als Begleiterscheinung fortgeschrittener Stadien von Skorbut oder Lepra auftreten. Nach dem Zahnverlust setzt die Wundheilung als Sekundärheilung ein, während der sich die Alveole mit Blut füllt und sich ein Koagulum bildet. Anschließend erfolgt dessen Umwandlung in Knochengewebe und schließlich verstreicht die Alveole derart, dass sie makroskopisch nicht mehr erkannt werden kann. Der Zeitrahmen der knöchernen Konsolidierung des Kieferkammes ist im Detail wenig erforscht. Aufgrund des gehäuften Auftretens von AMTL in menschlichen Populationen, ist die Erarbeitung eines Zeitfensters, mit dessen Hilfe durch makroskopische Beobachtung des Knochens die Zeitspanne seit dem Zahnverlust („time since tooth loss“, TSL) ermittelt werden kann, insbesondere im archäologischen Kontext äußerst wertvoll. Solch ein Zeitschema mit Angaben über die Variabilität der zeitlichen Abläufe bei den Heilungsvorgängen kann nicht nur in der Osteologie, sondern auch in der Forensik, der allgemeinen Zahnheilkunde und der Implantologie nutzbringend angewandt werden. rnrnNach dem Verlust eines Zahnes wird das Zahnfach in der Regel durch ein Koagulum aufgefüllt. Das sich bildende Gewebe wird rasch in noch unreifen Knochen umgewandelt, welcher den Kieferknochen und auch die angrenzenden Zähne stabilisiert. Nach seiner Ausreifung passt sich das Gewebe schließlich dem umgebenden Knochen an. Das Erscheinungsbild des Zahnfaches während dieses Vorgangs durchläuft verschiedene Stadien, welche in der vorliegenden Studie anhand von klinischen Röntgenaufnahmen rezenter Patienten sowie durch Untersuchungen an archäologischen Skelettserien identifiziert wurden. Die Heilungsvorgänge im Zahnfach können in eine prä-ossale Phase (innerhalb einer Woche nach Zahnverlust), eine Verknöcherungsphase (etwa 14 Wochen nach Zahnverlust) und eine ossifizierte bzw. komplett verheilte Phase (mindestens 29 Wochen nach Zahnverlust) eingeteilt werden. Etliche Faktoren – wie etwa die Resorption des Interdentalseptums, der Zustand des Alveolarknochens oder das Individualgeschlecht – können den normalen Heilungsprozess signifikant beschleunigen oder hemmen und so Unterschiede von bis zu 19 Wochen verursachen. Weitere Variablen wirkten sich nicht signifikant auf den zeitlichen Rahmen des Heilungsprozesse aus. Relevante Abhängigkeiten zwischen verschiedenen Variabeln wurden ungeachtet der Alveolenauffüllung ebenfalls getestet. Gruppen von unabhängigen Variabeln wurden im Hinblick auf Auffüllungsgrad und TSL in multivariablen Modellen untersucht. Mit Hilfe dieser Ergebnisse ist eine grobe Einschätzung der Zeitspanne nach einem Zahnverlust in Wochen möglich, wobei die Einbeziehung weiterer Parameter eine höhere Präzision ermöglicht. rnrnObwohl verschiedene dentale Pathologien in dieser Studie berücksichtigt wurden, sollten zukünftige Untersuchungen genauer auf deren potenzielle Einflussnahme auf den alveolaren Heilungsprozess eingehen. Der kausale Zusammenhang einiger Variablen (wie z. B. Anwesenheit von Nachbarzähnen oder zahnmedizinische Behandlungen), welche die Geschwindigkeit der Heilungsrate beeinflussen, wäre von Bedeutung für zukünftige Untersuchungen des oralen Knochengewebes. Klinische Vergleichsstudien an forensischen Serien mit bekannter TSL oder an einer sich am Anfang des Heilungsprozesses befindlichen klinischen Serie könnten eine Bekräftigung dieser Ergebnisse liefern.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

The research activity focused on the study, design and evaluation of innovative human-machine interfaces based on virtual three-dimensional environments. It is based on the brain electrical activities recorded in real time through the electrical impulses emitted by the brain waves of the user. The achieved target is to identify and sort in real time the different brain states and adapt the interface and/or stimuli to the corresponding emotional state of the user. The setup of an experimental facility based on an innovative experimental methodology for “man in the loop" simulation was established. It allowed involving during pilot training in virtually simulated flights, both pilot and flight examiner, in order to compare the subjective evaluations of this latter to the objective measurements of the brain activity of the pilot. This was done recording all the relevant information versus a time-line. Different combinations of emotional intensities obtained, led to an evaluation of the current situational awareness of the user. These results have a great implication in the current training methodology of the pilots, and its use could be extended as a tool that can improve the evaluation of a pilot/crew performance in interacting with the aircraft when performing tasks and procedures, especially in critical situations. This research also resulted in the design of an interface that adapts the control of the machine to the situation awareness of the user. The new concept worked on, aimed at improving the efficiency between a user and the interface, and gaining capacity by reducing the user’s workload and hence improving the system overall safety. This innovative research combining emotions measured through electroencephalography resulted in a human-machine interface that would have three aeronautical related applications: • An evaluation tool during the pilot training; • An input for cockpit environment; • An adaptation tool of the cockpit automation.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

Questo elaborato ha come scopo quello di analizzare ed esaminare una patologia oggetto di attiva ricerca scientifica, la sindrome dell’arto fantasma o phantom limb pain: tracciando la storia delle terapie più utilizzate per la sua attenuazione, si è giunti ad analizzarne lo stato dell’arte. Consapevoli che la sindrome dell’arto fantasma costituisce, oltre che un disturbo per chi la prova, uno strumento assai utile per l’analisi delle attività nervose del segmento corporeo superstite (moncone), si è svolta un’attività al centro Inail di Vigorso di Budrio finalizzata a rilevare segnali elettrici provenienti dai monconi superiori dei pazienti che hanno subito un’amputazione. Avendo preliminarmente trattato l’argomento “Machine learning” per raggiungere una maggiore consapevolezza delle potenzialità dell’apprendimento automatico, si sono analizzate la attività neuronali dei pazienti mentre questi muovevano il loro arto fantasma per riuscire a settare nuove tipologie di protesi mobili in base ai segnali ricevuti dal moncone.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

Obiettivo della tesi è analizzare e testare i principali approcci di Machine Learning applicabili in contesti semantici, partendo da algoritmi di Statistical Relational Learning, quali Relational Probability Trees, Relational Bayesian Classifiers e Relational Dependency Networks, per poi passare ad approcci basati su fattorizzazione tensori, in particolare CANDECOMP/PARAFAC, Tucker e RESCAL.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

Con il presente studio si è inteso analizzare l’impatto dell’utilizzo di una memoria di traduzione (TM) e del post-editing (PE) di un output grezzo sul livello di difficoltà percepita e sul tempo necessario per ottenere un testo finale di alta qualità. L’esperimento ha coinvolto sei studenti, di madrelingua italiana, del corso di Laurea Magistrale in Traduzione Specializzata dell’Università di Bologna (Vicepresidenza di Forlì). I partecipanti sono stati divisi in tre coppie, a ognuna delle quali è stato assegnato un estratto di comunicato stampa in inglese. Per ogni coppia, ad un partecipante è stato chiesto di tradurre il testo in italiano usando la TM all’interno di SDL Trados Studio 2011. All’altro partecipante è stato chiesto di fare il PE completo in italiano dell’output grezzo ottenuto da Google Translate. Nei casi in cui la TM o l’output non contenevano traduzioni (corrette), i partecipanti avrebbero potuto consultare Internet. Ricorrendo ai Think-aloud Protocols (TAPs), è stato chiesto loro di riflettere a voce alta durante lo svolgimento dei compiti. È stato quindi possibile individuare i problemi traduttivi incontrati e i casi in cui la TM e l’output grezzo hanno fornito soluzioni corrette; inoltre, è stato possibile osservare le strategie traduttive impiegate, per poi chiedere ai partecipanti di indicarne la difficoltà attraverso interviste a posteriori. È stato anche misurato il tempo impiegato da ogni partecipante. I dati sulla difficoltà percepita e quelli sul tempo impiegato sono stati messi in relazione con il numero di soluzioni corrette rispettivamente fornito da TM e output grezzo. È stato osservato che usare la TM ha comportato un maggior risparmio di tempo e che, al contrario del PE, ha portato a una riduzione della difficoltà percepita. Il presente studio si propone di aiutare i futuri traduttori professionisti a scegliere strumenti tecnologici che gli permettano di risparmiare tempo e risorse.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

In questa tesi sono stati apportati due importanti contributi nel campo degli acceleratori embedded many-core. Abbiamo implementato un runtime OpenMP ottimizzato per la gestione del tasking model per sistemi a processori strettamente accoppiati in cluster e poi interconnessi attraverso una network on chip. Ci siamo focalizzati sulla loro scalabilità e sul supporto di task di granularità fine, come è tipico nelle applicazioni embedded. Il secondo contributo di questa tesi è stata proporre una estensione del runtime di OpenMP che cerca di prevedere la manifestazione di errori dati da fenomeni di variability tramite una schedulazione efficiente del carico di lavoro.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

Im Bereich sicherheitsrelevanter eingebetteter Systeme stellt sich der Designprozess von Anwendungen als sehr komplex dar. Entsprechend einer gegebenen Hardwarearchitektur lassen sich Steuergeräte aufrüsten, um alle bestehenden Prozesse und Signale pünktlich auszuführen. Die zeitlichen Anforderungen sind strikt und müssen in jeder periodischen Wiederkehr der Prozesse erfüllt sein, da die Sicherstellung der parallelen Ausführung von größter Bedeutung ist. Existierende Ansätze können schnell Designalternativen berechnen, aber sie gewährleisten nicht, dass die Kosten für die nötigen Hardwareänderungen minimal sind. Wir stellen einen Ansatz vor, der kostenminimale Lösungen für das Problem berechnet, die alle zeitlichen Bedingungen erfüllen. Unser Algorithmus verwendet Lineare Programmierung mit Spaltengenerierung, eingebettet in eine Baumstruktur, um untere und obere Schranken während des Optimierungsprozesses bereitzustellen. Die komplexen Randbedingungen zur Gewährleistung der periodischen Ausführung verlagern sich durch eine Zerlegung des Hauptproblems in unabhängige Unterprobleme, die als ganzzahlige lineare Programme formuliert sind. Sowohl die Analysen zur Prozessausführung als auch die Methoden zur Signalübertragung werden untersucht und linearisierte Darstellungen angegeben. Des Weiteren präsentieren wir eine neue Formulierung für die Ausführung mit fixierten Prioritäten, die zusätzlich Prozessantwortzeiten im schlimmsten anzunehmenden Fall berechnet, welche für Szenarien nötig sind, in denen zeitliche Bedingungen an Teilmengen von Prozessen und Signalen gegeben sind. Wir weisen die Anwendbarkeit unserer Methoden durch die Analyse von Instanzen nach, welche Prozessstrukturen aus realen Anwendungen enthalten. Unsere Ergebnisse zeigen, dass untere Schranken schnell berechnet werden können, um die Optimalität von heuristischen Lösungen zu beweisen. Wenn wir optimale Lösungen mit Antwortzeiten liefern, stellt sich unsere neue Formulierung in der Laufzeitanalyse vorteilhaft gegenüber anderen Ansätzen dar. Die besten Resultate werden mit einem hybriden Ansatz erzielt, der heuristische Startlösungen, eine Vorverarbeitung und eine heuristische mit einer kurzen nachfolgenden exakten Berechnungsphase verbindet.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

La prima parte del documento contiene una breve introduzione al mondo mobile, cloud computing e social network. La seconda parte si concentra sulla progettazione di un'applicazione per i dispositivi mobili usando le tecnologie Facebook e Parse. Infine, viene implementata un'applicazione Android usando le techiche descritte in precedenza.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

il ruolo della tesi è stato di valorizzare attraverso la valutazione di un peso l'urgenza e la necessità di cure dei pazienti processati da un modello di ottimizzazione. Essa si inserisce all'interno di un progetto di creazione di tale modello per la schedulazione di interventi in un reparto chirurgico di un generico ospedale.si è fatto uso del software ibm opl optimization suite.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

In CMS è stato lanciato un progetto di Data Analytics e, all’interno di esso, un’attività specifica pilota che mira a sfruttare tecniche di Machine Learning per predire la popolarità dei dataset di CMS. Si tratta di un’osservabile molto delicata, la cui eventuale predizione premetterebbe a CMS di costruire modelli di data placement più intelligenti, ampie ottimizzazioni nell’uso dello storage a tutti i livelli Tiers, e formerebbe la base per l’introduzione di un solito sistema di data management dinamico e adattivo. Questa tesi descrive il lavoro fatto sfruttando un nuovo prototipo pilota chiamato DCAFPilot, interamente scritto in python, per affrontare questa sfida.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

In questa tesi sono stati introdotti e studiati i Big Data, dando particolare importanza al mondo NoSQL, approfondendo MongoDB, e al mondo del Machine Learning, approfondendo PredictionIO. Successivamente è stata sviluppata un'applicazione attraverso l'utilizzo di tecnologie web, nodejs, node-webkit e le tecnologie approfondite prima. L'applicazione utilizza l'interpolazione polinomiale per predirre il prezzo di un bene salvato nello storico presente su MongoDB. Attraverso PredictionIO, essa analizza il comportamento degli altri utenti consigliando dei prodotti per l'acquisto. Infine è stata effetuata un'analisi dei risultati dell'errore prodotto dall'interpolazione.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

In questa tesi presentiamo una strategia, e la relativa implementazione, per il problema dell’allocazione e schedulazione, su risorse unarie, di applicazioni multi-task periodiche, composte da attività che interagiscono fra loro e la cui durata è incerta. Lo scopo che ci si propone di raggiungere, è l’implementazione di una strategia di allocazione schedulazione che garantisca robustezza ed efficienza, in quei contesti in cui la conoscenza a priori è limitata e in cui le applicazioni si ripetono indefinitamente nel tempo. Per raggiungere questo scopo, sarà usato un approccio ibrido fra statico e dinamico. Staticamente è generata una soluzione del problema, sfruttando la programmazione a vincoli, in cui le durate delle attività sono arbitrariamente fissate. Questa soluzione, non rappresenta la soluzione del nostro problema, ma è utilizzata per generare un ordinamento delle attività, che compongono le applicazioni periodiche. Dinamicamente, sfruttando l’ordinamento ottenuto, è effettuata l’allocazione e la schedulazione effettiva delle applicazioni periodiche, considerando durate variabili per le attività. L’efficienza ottenuta applicando il nostro approccio è valutata effettuando test su una vasta gamma di istanze, sia industriali, sia sintetiche appositamente generate. I risultati sono confrontati con quelli ottenuti, per le stesse istanze, applicando un approccio puramente statico. Come si vedrà, in alcuni casi, è possibile anche quadruplicale la velocità di completamento delle applicazioni trattate.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

High Performance Computing e una tecnologia usata dai cluster computazionali per creare sistemi di elaborazione che sono in grado di fornire servizi molto piu potenti rispetto ai computer tradizionali. Di conseguenza la tecnologia HPC e diventata un fattore determinante nella competizione industriale e nella ricerca. I sistemi HPC continuano a crescere in termini di nodi e core. Le previsioni indicano che il numero dei nodi arrivera a un milione a breve. Questo tipo di architettura presenta anche dei costi molto alti in termini del consumo delle risorse, che diventano insostenibili per il mercato industriale. Un scheduler centralizzato non e in grado di gestire un numero di risorse cosi alto, mantenendo un tempo di risposta ragionevole. In questa tesi viene presentato un modello di scheduling distribuito che si basa sulla programmazione a vincoli e che modella il problema dello scheduling grazie a una serie di vincoli temporali e vincoli sulle risorse che devono essere soddisfatti. Lo scheduler cerca di ottimizzare le performance delle risorse e tende ad avvicinarsi a un profilo di consumo desiderato, considerato ottimale. Vengono analizzati vari modelli diversi e ognuno di questi viene testato in vari ambienti.