554 resultados para apprendimento, automatico, dimostrazione, rinforzo, robotica


Relevância:

20.00% 20.00%

Publicador:

Resumo:

Negli ultimi tempi la questione su come arginare il problema della diffusione delle fake news è diventata predominante sia nel dibattito pubblico che politico; in quanto miliardi di terabyte di foto, testi, video, informazioni si muovono quotidianamente attraverso le piattaforme social persuadendo in maniera più o meno efficace ciascun utente. Questo è tutto amplificato dal fatto che il mondo dell'informazione sia radicalmente cambiato col passare del tempo, in risposta alla crescita del fabbisogno informativo, dando maggiore importanza al numero di click piuttosto che all'attendibilità dell'informazione stessa. Nel contesto appena descritto i social media e la rete in generale hanno un ruolo molto importante in quanto tutti hanno diritto di parola al di là di meriti o conoscenze personali. Quello che conta davvero non è l’aderenza ai fatti, quanto la conformità con ciò a cui si crede e con la propria visione del mondo. L'uso e il significato del termine fake news si è evoluto nel tempo. Sebbene originariamente fosse utilizzato per fare riferimento a informazioni false e spesso clamorose diffuse sotto le spoglie di notizie, il termine si è evoluto ed è diventato sinonimo di diffusione di informazioni false che possono differenziarsi in base ai mezzi utilizzati per la falsificazione o in base all'intento per il quale sono state diffuse. L'obiettivo di questa tesi è quello di introdurre una rassegna delle metodologie atte a identificare e classifcare le fake news. Molti esperti hanno studiato modi per analizzare manualmente l'autenticità delle notizie; tuttavia, come valutarla in modo efficace è ancora una questione aperta. Nello specifico, la tesi fornisce anche un contributo per limitare la diffusione delle fake news sui social network, in quanto queste potrebbero influenzare o alterare l'opinione pubblica, contribuendo ad alimentare teorie complottistiche.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

La presente tesi tratta lo studio di fattibilità di un impianto automatico per l’assemblaggio di stampati in materiale plastico. Lo sviluppo della tesi si è basato sulla riproduzione a computer (utilizzando il software AutoMod) del layout futuro, delle movimentazioni di materiale e dell’analisi dei flussi che servono all’impianto e l’utilizzo del personale a bordo dello stesso. Successivamente, sviluppato il modello, si è andati a calcolare quale potesse essere il lotto ottimale di produzione che fosse in grado di individuare una produzione efficiente. Infine, è stata fatta l’analisi dell’investimento tramite foglio di calcolo Excel riportando i dati uscenti dal modello di simulazione insieme ad altri dati stimati e rilevati sul campo. Il programma ha come obiettivo l’analisi di fattibilità e la successiva decisione estratta dai dati sulla vantaggiosità o meno dell’investimento ed in quanto tempo l’azienda potrà rientrare economicamente.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

Lo sviluppo della robotica collaborativa, in particolare nelle applicazioni di processi industriali in cui sono richieste la flessibilità decisionale di un utilizzatore umano e le prestazioni di forza e precisione garantite dal robot, pone continue sfide per il miglioramento della capacità di progettare e controllare al meglio questi apparati, rendendoli sempre più accessibili in termini economici e di fruibilità. Questo cambio di paradigma rispetto ai tradizionali robot industriali, verso la condivisone attiva degli ambienti di lavoro tra uomo e macchina, ha accelerato lo sviluppo di nuove soluzioni per rendere possibile l’impiego di robot che possano interagire con un ambiente in continua mutazione, in piena sicurezza. Una possibile soluzione, ancora non diffusa commercialmente, ma largamente presente in letteratura, è rappresentata dagli attuatori elastici. Tra gli attuatori elastici, l’architettura che ad oggi ha destato maggior interesse è quella seriale, in cui l’elemento cedevole viene posto tra l’uscita del riduttore ed il carico. La bibliografia mostra come alcuni limiti della architettura seriale possano essere superati a parità di proprietà dinamiche. La soluzione più promettente è l’architettura differenziale, che si caratterizza per l’utilizzo di riduttori ad un ingresso e due uscite. I vantaggi mostrati dai primi risultati scientifici evidenziano l’ottenimento di modelli dinamici ideali paragonabili alla più nota architettura seriale, superandola in compattezza ed in particolare semplificando l’installazione dei sensori necessari al controllo. In questa tesi viene effettuata un’analisi dinamica preliminare ed uno studio dell’attitudine del dispositivo ad essere utilizzato in contesto collaborativo. Una volta terminata questa fase, si presenta il design e la progettazione di un prototipo, con particolare enfasi sulla scelta di componenti commerciali ed il loro dimensionamento, oltre alla definizione della architettura costruttiva complessiva.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

I gangli della base (BG) sono un gruppo di nuclei subcorticali che si trovano alla base del telencefalo e nella parte superiore del mesencefalo. La funzione dei BG è il controllo e la regolazione delle attività delle aree corticali motorie e premotorie in modo che i movimenti possano essere eseguiti fluidamente, ma sono coinvolti in numerosi altri processi motori e cognitivi. L’obiettivo che si pone questo lavoro di tesi è di simulare il comportamento dei BG attraverso un nuovo modello neurocomputazionale. È stato valutato il funzionamento del modello in varie condizioni, di base ed alterate, per illustrare casi standard (soggetti sani) e casi patologici (deplezione di dopamina nei pazienti Parkinson o ipermedicazione della dopamina tramite levodopa) durante un compito di probabilistic reversal learning (RL). Sono stati variati parametri di dopamina tonica e di rumore applicato ai soggetti e ai dati per simulare il modello durante il “one-choice task” presente in letteratura. I risultati raccolti indicano come il modello funzioni in maniera del tutto confrontabile con i risultati in letteratura, dimostrando la sua validità ed un utilizzo corretto dei parametri e della regola di apprendimento. Non è stato possibile dire altrettanto per seconda fase del RL, in cui la regola viene invertita: i soggetti non risultano apprendere in maniera coerente rispetto ai dati in letteratura, ma risultano restii all’individuazione del nuovo stimolo vincente. Tale risultato è da ricondursi probabilmente ad alcuni fattori: il numero di epoche utilizzate per il test sono esigue, lasciando ai soggetti poco tempo per apprendere la nuova regola; la regola di apprendimento usata nel reversal potrebbe non rappresentare la scelta migliore per rendere i soggetti più esplorativi nei confronti delle scelte proposte. Tali limiti sono spunti per futuri sviluppi del modello e del suo funzionamento, utilizzando regole di apprendimento diverse e più efficaci rispetto ai diversi contesti di azione.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

Il reversal learning (o apprendimento inverso) è la capacità di un soggetto di invertire una regola precedentemente appresa per adattarsi a un cambiamento avvenuto nell’ambiente esterno. Nel primo capitolo vengono esposte alcune strutture anatomiche generalmente coinvolte nell’apprendimento e negli aspetti motorio, cognitivo e decisionale dell’essere umano, quali i gangli della base. Poiché alcune zone dei gangli della base sono costituite da neuroni dopaminergici, viene introdotta l’importanza della dopamina per l’apprendimento e viene spiegato il suo ruolo all’interno del modello neuro computazionale tradizionale dei gangli della base. Dopo aver illustrato in cosa consiste l’apprendimento classico, in cosa consiste l’apprendimento operante e il ruolo della ricompensa in seguito al conseguimento di un’azione, viene approfondito il concetto di apprendimento per rinforzo, di punizione e di errori di previsione. La comprensione di queste forme di apprendimento dovuto a stimolo-azione-ricompensa/punizione e di cosa si intende per errori di previsione risulta fondamentale per capire l’apprendimento inverso; infatti, quest’ultimo viene presentato al lettore solamente nel secondo capitolo. Successivamente alla sua introduzione, vengono esposti/e alcuni disturbi/patologie con lo scopo di evidenziare il motivo per cui l’abilità di inversione risulti invalidata nei soggetti che ne sono affetti. Ciò permette di delineare un quadro generale sull’apprendimento inverso e su come esso risulti corretto o compromesso in un soggetto in base alla sua condizione di salute. Infine, nel terzo capitolo viene illustrato un recentissimo modello matematico volto a descriverlo in maniera più dettagliata.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

Angiodroid The CO2 Injector è un dispositivo medico che permette il dosaggio di CO2 nelle cavità vascolari a volumi e pressioni controllate. La CO2 agisce come mezzo di contrasto durante gli esami angiografici, offrendo notevoli vantaggi e bassissimo tasso di complicazioni rispetto ai mezzi di contrasto iodati. L’oggetto di questa tesi è lo studio di due Essential Performance Requirements (EPR) di Angiodroid, definiti come le prestazioni di una funzione clinica diversa da quella relativa alla sicurezza di base, in cui la perdita o la degradazione oltre i limiti specificati dal produttore comporta un rischio inaccettabile. Gli EPR presi in considerazione sono il volume e la pressione di iniezione di CO2, in quanto l’erogazione affidabile e ripetibile del gas permette sia di garantire la sicurezza del paziente sia di standardizzare i protocolli di iniezione per i diversi distretti vascolari. Sovradosaggio e sovrapressione della somministrazione della dose di CO2 possono comportare potenziali rischi clinici per il paziente, mentre sottodosaggio e una sottopressione non sono legati a rischi clinici, piuttosto comportano una scarsa qualità dell’immagine radiologica. Lo scopo della tesi è quello di validare gli intervalli di precisione del volume e della pressione di iniezione in diversi scenari entro i quali il dispositivo è considerato conforme e sicuro. I test di validazione sono stati eseguiti su 5 iniettori al termine della loro life cycle (8 anni) attraverso un invecchiamento accelerato. I valori di volume e la pressione di iniezione sono stati esaminati sia in aria, cioè senza carico, sia su un modello di paziente simulato, quindi con carico, utilizzando introduttori e cateteri angiografici autorizzati dalla Food and Drug Administration. Tutte le analisi sono state effettuate simulando gli scenari di funzionamento dell'iniettore più critici.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

A partire dal 1992, nell’industria elettronica giapponese, ha iniziato a diffondersi il sistema produttivo Seru Seisan: “Seru” in giapponese significa “organismo cellulare” e difatti questa modalità di produzione si basa sulla lavorazione di prodotti all’interno di celle. Esse sono formate da brevi tratti di nastro trasportatore, a seguito dello smantellamento di lunghe linee di assemblaggio, in cui lavorano un numero limitato di operatori multi-skilled. All’interno di un Seru possono essere lavorate più tipologie di prodotto ed ogni prodotto lavorato viene completato all’interno della cella stessa. Questo sistema produttivo a bassa automazione si rivela particolarmente adatto per operazioni di assemblaggio e consente di fronteggiare la dinamicità del mercato caratterizzata da elevata varietà e bassi volumi: il layout di un Seru, infatti, può essere riconfigurato rapidamente e richiede bassi investimenti in attrezzatura. In questo elaborato vengono presentati i Seru Seisan, descrivendone le principali caratteristiche e configurazioni unitamente alla loro origine. Dal momento che molti tentativi di applicazione di tale sistema produttivo risultano infruttuosi, soprattutto al di fuori del Giappone, viene proposto un quadro generale per l’implementazione e un algoritmo euristico per risolvere il problema di formazione e assegnazione degli operatori alle celle, minimizzando il costo totale di cross-training e bilanciando il carico di lavoro. Infine, viene presentato il lavoro di ricerca del presente elaborato che ha l’obiettivo di dimostrare il modello analitico che sta alla base del funzionamento di un Seru Divisionale, arrivando a stimare la produttività di una produzione multiprodotto. La formula a cui si giunge viene testata in due casi numerici reali, mostrando come alla progressiva diminuzione del numero di operatori all’interno di una cella, si ottenga un aumento della produttività della cella stessa.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

L’Intelligenza Artificiale negli ultimi anni sta plasmando il futuro dell’umanità in quasi tutti i settori. È già il motore principale di diverse tecnologie emergenti come i big data, la robotica e l’IoT e continuerà ad agire come innovatore tecnologico nel futuro prossimo. Le recenti scoperte e migliorie sia nel campo dell’hardware che in quello matematico hanno migliorato l’efficienza e ridotto i tempi di esecuzione dei software. È in questo contesto che sta evolvendo anche il Natural Language Processing (NLP), un ramo dell’Intelligenza Artificiale che studia il modo in cui fornire ai computer l'abilità di comprendere un testo scritto o parlato allo stesso modo in cui lo farebbe un essere umano. Le ambiguità che distinguono la lingua naturale dalle altre rendono ardui gli studi in questo settore. Molti dei recenti sviluppi algoritmici su NLP si basano su tecnologie inventate decenni fa. La ricerca in questo settore è quindi in continua evoluzione. Questa tesi si pone l'obiettivo di sviluppare la logica di una chatbot help-desk per un'azienda privata. Lo scopo è, sottoposta una domanda da parte di un utente, restituire la risposta associata presente in una collezione domande-risposte. Il problema che questa tesi affronta è sviluppare un modello di NLP in grado di comprendere il significato semantico delle domande in input, poiché esse possono essere formulate in molteplici modi, preservando il contenuto semantico a discapito della sintassi. A causa delle ridotte dimensioni del dataset italiano proprietario su cui testare il modello chatbot, sono state eseguite molteplici sperimentazioni su un ulteriore dataset italiano con task affine. Attraverso diversi approcci di addestramento, tra cui apprendimento metrico, sono state raggiunte alte accuratezze sulle più comuni metriche di valutazione, confermando le capacità del modello proposto e sviluppato.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

Molti degli studi oncologici partono dalla analisi di provini istologici, cioè campioni di tessuto prelevati dal paziente. Grazie a marcatori specifici, ovvero coloranti selettivi applicati alla sezione da analizzare, vengono studiate specifiche parti del campione. Spesso per raccogliere più informazioni del campione si utilizzano più marcatori. Tuttavia, questi non sempre possono essere applicati in parallelo e spesso vengono utilizzati in serie dopo un lavaggio del campione. Le immagini così ottenute devono quindi essere allineate per poter procedere con studi di colocalizzazione simulando una acquisizione in parallelo dei vari segnali. Tuttavia, non esiste una procedura standard per allineare le immagini così ottenute. L’allineamento manuale è tempo-dispendioso ed oggetto di possibili errori. Un software potrebbe rendere il tutto più rapido e affidabile. In particolare, DS4H Image Alignment è un plug-in open source implementato per ImageJ/Fiji per allineare immagini multimodali in toni di grigio. Una prima versione del software è stata utilizzata per allineare manualmente una serie di immagini, chiedendo all’utente di definire punti di riferimento comuni a tutte le immagini. In una versione successiva, è stata aggiunta la possibilità di effettuare un allineamento automatico. Tuttavia, questo non era ottimizzato e comportava una perdita di informazione nelle aree non sovrapposte all’immagine definita come riferimento. In questo lavoro, è stato sviluppato un modulo ottimizzato di registrazione automatica di immagini che non assume nessuna immagine di riferimento e preserva tutti i pixel delle immagini originali creando uno stack di dimensioni idonee a contenere il tutto. Inoltre, l’architettura dell’intero software è stata estesa per poter registrare anche immagini a colori.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

La tesi è basata sul dimensionamento e l’analisi degli articoli che possono andare all’interno di un nuovo magazzino. Il progetto nasce dalla necessità di espandere il centro di stoccaggio attuale. Verranno costruiti un magazzino Autostore, una struttura più compatta ed efficiente nello stoccaggio della merce, ed un nuovo magazzino pallet servito da traslo elevatori. Dato che i materiali all’interno dell’Autostore devono essere stoccati all’interno di cassette più piccole rispetto ad un pallet, è stato necessario stimare il numero di articoli idonei a questo tipo di stoccaggio sia dal punto di vista del peso che dal punto di vista volumetrico, dato che di solo un 30% dei codici si è a conoscenza delle dimensioni. L’analisi si è sviluppata tramite stime in base a quanti codici siano presenti all’interno dei pallet e la loro quantità al suo interno. Da questa stima si sono ricavate tre categorie, verde, arancione e rossa che identificano se i materiali risultano idonei oppure no. I primi sono quelli che possono andare all’interno dell’Autostore, i secondi risultano essere border line, mentre i terzi non possono andare all’interno sicuramente. Degli articoli in esame sono state estratte anche le giacenze medie nei 3 anni passati, in modo tale da dimensionare adeguatamente i magazzini, le entrate merci, così da vedere quante baie di carico sono necessarie e le varie tipologie di movimento legate ai prelievi e le tempistiche di prelievo per ogni baia di scarico, in modo tale da valutare le minime prestazioni che il nuovo magazzino deve soddisfare. Sono stati calcolati anche dei flussi di materiale, uscente ed entrante dall’azienda, in modo tale da individuare la posizione ottimale del nuovo centro di stoccaggio. Infine sono state dimensionate e costificate le due soluzioni: quella Autostore che può ospitare tutti gli articoli della categoria verde, di cui sono stati sviluppati due scenari, mentre quella del magazzino automatico pallet che contiene le altre due categorie.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

Il monitoraggio basato su emissioni acustiche (AE) guidate si è confermato tra le tecniche più affidabili nel campo del Non-Destructive Testing delle strutture planari, vista anche la sua semplicità implementativa, i bassi costi che lo caratterizzano, la non invasività e la possibilità di realizzare un sistema che agisca in maniera continuativa ed in tempo reale sfruttando reti di sensori permanentemente installati, senza la necessità di ispezioni periodiche. In tale contesto, è possibile sfruttare l’abilità dell’apprendimento automatico nell’individuazione dei pattern nascosti all’interno dei segnali grezzi registrati, ottenendo così informazioni utili ai fini dell’applicazione considerata. L’esecuzione on-edge dei modelli, ovvero sul punto di acquisizione, consente di superare le limitazioni imposte dal processamento centralizzato dei dati, con notevoli vantaggi in termini di consumo energetico, tempestività nella risposta ed integrità degli stessi. A questo scopo, si rivela però necessario sviluppare modelli compatibili con le stringenti risorse hardware dei dispositivi a basso costo tipicamente impiegati. In questo elaborato verranno prese in esame alcune tipologie di reti neurali artificiali per l’estrazione dell’istante di arrivo (ToA) di un’emissione acustica all’interno di una sequenza temporale, in particolare quelle convoluzionali (CNNs) ed una loro variante più recente, le CapsNet basate su rounting by agreement. L’individuazione dei ToA relativi al medesimo evento su segnali acquisiti in diverse posizioni spaziali consente infatti di localizzare la sorgente da cui esso è scaturito. Le dimensioni di questi modelli permettono di eseguire l’inferenza direttamente su edge-device. I risultati ottenuti confermano la maggiore robustezza delle tecniche di apprendimento profondo rispetto ai metodi statistici tradizionali nel far fronte a diverse tipologie di disturbo, in particolare negli scenari più critici dal punto di vista del rapporto segnale-rumore.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

Nella sede dell’azienda ospitante Alexide, si è ravvisata la mancanza di un sistema di controllo automatico da remoto dell’intero impianto di climatizzazione HVAC (Heating, Ventilation and Air Conditioning) utilizzato, e la soluzione migliore è risultata quella di attuare un processo di trasformazione della struttura in uno smart building. Ho quindi eseguito questa procedura di trasformazione digitale progettando e sviluppando un sistema distribuito in grado di gestire una serie di dati provenienti in tempo reale da sensori ambientali. L’architettura del sistema progettato è stata sviluppata in C# su ambiente dotNET, dove sono stati collezionati i dati necessari per il funzionamento del modello di predizione. Nella fattispecie sono stati utilizzati i dati provenienti dall’HVAC, da un sensore di temperatura interna dell'edificio e dal fotovoltaico installato nella struttura. La comunicazione tra il sistema distribuito e l’entità dell’HVAC avviene mediante il canale di comunicazione ModBus, mentre per quanto riguarda i dati della temperatura interna e del fotovoltaico questi vengono collezionati da sensori che inviano le informazioni sfruttando un canale di comunicazione che utilizza il protocollo MQTT, e lo stesso viene utilizzato come principale metodo di comunicazione all’interno del sistema, appoggiandosi ad un broker di messaggistica con modello publish/subscribe. L'automatizzazione del sistema è dovuta anche all'utilizzo di un modello di predizione con lo scopo di predire in maniera quanto più accurata possibile la temperatura interna all'edificio delle ore future. Per quanto riguarda il modello di predizione da me implementato e integrato nel sistema la scelta è stata quella di ispirarmi ad un modello ideato da Google nel 2014 ovvero il Sequence to Sequence. Il modello sviluppato si struttura come un encoder-decoder che utilizza le RNN, in particolare le reti LSTM.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

Il documento riporta l'analisi di studio della redditività, in merito ad un eventuale investimento, conseguente all'acquisto di un macchinario automatizzato adibito allo smistamento pacchi di un'importante azienda internazionale che opera nel settore del trasporto merci: la DHL. Per la ricerca, sono state utilizzate informazioni, solo a fini statistici, reperite direttamente dall'azienda, previo il loro consenso al trattamento dei dati, presso la loro sede di Forlì. Queste non rappresentano, quindi, la reale situazione dell'azienda. Inoltre, le indicazioni relative al macchinario, che è il sorter automatico, sono state ricavate da manuali online o attraverso e-mail con gli uffici dell'azienda produttrice. Una volta quantificata la possibile redditività dell'investimento e il tempo necessario per essere vantaggioso per l'azienda, si sono redatte le conclusioni dello studio.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

In this paper, nonlinear dynamic equations of a wheeled mobile robot are described in the state-space form where the parameters are part of the state (angular velocities of the wheels). This representation, known as quasi-linear parameter varying, is useful for control designs based on nonlinear H(infinity) approaches. Two nonlinear H(infinity) controllers that guarantee induced L(2)-norm, between input (disturbances) and output signals, bounded by an attenuation level gamma, are used to control a wheeled mobile robot. These controllers are solved via linear matrix inequalities and algebraic Riccati equation. Experimental results are presented, with a comparative study among these robust control strategies and the standard computed torque, plus proportional-derivative, controller.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

In the last decade, local image features have been widely used in robot visual localization. To assess image similarity, a strategy exploiting these features compares raw descriptors extracted from the current image to those in the models of places. This paper addresses the ensuing step in this process, where a combining function must be used to aggregate results and assign each place a score. Casting the problem in the multiple classifier systems framework, we compare several candidate combiners with respect to their performance in the visual localization task. A deeper insight into the potential of the sum and product combiners is provided by testing two extensions of these algebraic rules: threshold and weighted modifications. In addition, a voting method, previously used in robot visual localization, is assessed. All combiners are tested on a visual localization task, carried out on a public dataset. It is experimentally demonstrated that the sum rule extensions globally achieve the best performance. The voting method, whilst competitive to the algebraic rules in their standard form, is shown to be outperformed by both their modified versions.