947 resultados para intelligenza artificiale, test di Turing
Resumo:
In questo elaborato andremo a descrivere, sia a livello strutturale che implementativo, il progetto sperimentale da noi ideato volto alla creazione di un laboratorio virtuale di testing. Lo scopo principale del laboratorio è appunto quello di delocalizzare la fase preliminare di testing di un'applicazione; nel nostro caso specifico siamo partiti dallo scenario riguardante la rete ferroviaria ed abbiamo preso in esame il software utilizzato per la gestione del traffico. Il vincolo principale che grava su questo progetto è che l'applicazione da collaudare non deve minimamente essere modificata, e ciò significa che occorre creare intorno ad essa un ambiente di testing conforme alle caratteristiche in cui il software si aspetta di operare. Ed è qui che entra in gioco la virtualizzazione.
Resumo:
Il recente sviluppo commerciale di smartphone, tablet e simili dispositivi, ha portato alla ricerca di soluzioni hardware e software dotate di un alto livello di integrazione, in grado di supportare una potenza di calcolo e una versatilità di utilizzo sempre più crescenti, pur mantenendo bassi i consumi e le dimensioni dei dispositivi. Questo sviluppo ha consentito parallelamente a simili tecnologie di trovare applicazione in tanti altri settori, tra i quali quello biomedicale. Il lavoro esposto in questa tesi si inserisce nel contesto appena descritto e, in particolare, consiste nello sviluppo di un sistema WBAN ideato per garantire maggiore flessibilità, controllo e personalizzazione nella terapia riabilitativa dei pazienti affetti da Morbo di Parkinson. In questo campo è stata dimostrata l'efficacia, in termini di miglioramento delle condizioni di vita dell'individuo, dell'esercizio fisico e in particolare di una serie di fisioterapie riabilitative specifiche. Tuttavia manca ancora uno strumento in grado di garantire più indipendenza, continuità e controllo,per le persone affette da MP, durante l'esecuzione di questi esercizi; senza che sia strettamente necessario l'intervento di personale specializzato per ogni seduta fisioterapeutica. Inoltre manca un sistema che possa essere comodamente trasportato dal paziente nelle attività di tutti i giorni e che consenta di registrare e trasmettere eventi particolari legati alla patologia, come blocchi motori e cadute accidentali. Il presente lavoro di tesi tratta della realizzazione di un Firmware per la gestione di un Nodo Centrale che funge da master in una rete WBAN a tre nodi. L'obbiettivo è quello di integrare in tale firmware le funzioni di acquisizione dati dai sensori on-board, comunicazione tra i nodi della rete e gestione delle periferiche hardware secondarie; in particolare per lo sviluppo è stato usato un Sistema Operativo Real-Time (RTOS) del quale sono esposti vantaggi e svantaggi dell’utilizzo.
Resumo:
La tesi presenta l'algoritmo AKS, deterministico e polinomiale, scoperto dai matematici Agrawal, Kayal e Saxena nel 2002. Esso si basa su una generalizzazione del Piccolo Teorema di Fermat all'anello dei polinomi a coefficienti in Zp.
Resumo:
In questa tesi è stato analizzato e tradotto nel linguaggio di alto livello AMPL un modello di ILP relativo alla pianificazione tattica del blocco operatorio. L'obiettivo è quello di permettere l'interfacciamento con numerosi solver -commerciali e non- al fine di analizzarne le prestazioni. In seguito a un'introduzione in merito al problema dell'Operating Room Management e a una descrizione del contesto sanitario regionale dell'Emilia-Romagna, si è proceduto alla descrizione formale del modello. Infine sono state eseguite numerose risoluzioni con i solver cplex e gurobi al variare di alcuni parametri in ingresso, tra cui il numero di sale operatorie, di infermieri e operatori sanitari, e di pazienti in lista d'attesa.
Resumo:
Con questa tesi verrà spiegata l'intrinseca connessione tra la matematica della teoria dei numeri e l'affidabilità e sicurezza dei crittosistemi asimmetrici moderni. I principali argomenti trattati saranno la crittografia a chiave pubblica ed il problema della verifica della primalità. Nei primi capitoli si capirà cosa vuol dire crittografia e qual è la differenza tra asimmetria e simmetria delle chiavi. Successivamente verrà fatta maggiore luce sugli utilizzi della crittografia asimmetrica, mostrando tecniche per: comunicare in modo confidenziale, scambiare in modo sicuro chiavi private su un canale insicuro, firmare messaggi, certificare identità e chiavi pubbliche. La tesi proseguirà con la spiegazione di quale sia la natura dei problemi alla base della sicurezza dei crittosistemi asimmetrici oggigiorno più diffusi, illustrando brevemente le novità introdotte dall'avvento dei calcolatori quantistici e dimostrando l'importanza che riveste in questo contesto il problema della verifica della primalità. Per concludere verrà fatta una panoramica di quali sono i test di primalità più efficienti ed efficaci allo stato dell'arte, presentando una nuova tecnica per migliorare l'affidabilità del test di Fermat mediante un nuovo algoritmo deterministico per fattorizzare gli pseudoprimi di Carmichael, euristicamente in tempo O~( log^3{n}), poi modificato sfruttando alcune proprietà del test di Miller per ottenere un nuovo test di primalità deterministico ed euristico con complessità O~( log^2{n} ) e la cui probabilità di errore tende a 0 con n che tende ad infinito.
Resumo:
Una Brain Computer Interface (BCI) è un dispositivo che permette la misura e l’utilizzo di segnali cerebrali al fine di comandare software e/o periferiche di vario tipo, da semplici videogiochi a complesse protesi robotizzate. Tra i segnali attualmente più utilizzati vi sono i Potenziali Evocati Visivi Steady State (SSVEP), variazioni ritmiche di potenziale elettrico registrabili sulla corteccia visiva primaria con un elettroencefalogramma (EEG) non invasivo; essi sono evocabili attraverso una stimolazione luminosa periodica, e sono caratterizzati da una frequenza di oscillazione pari a quella di stimolazione. Avendo un rapporto segnale rumore (SNR) particolarmente favorevole ed una caratteristica facilmente studiabile, gli SSVEP sono alla base delle più veloci ed immediate BCI attualmente disponibili. All’utente vengono proposte una serie di scelte ciascuna associata ad una stimolazione visiva a diversa frequenza, fra le quali la selezionata si ripresenterà nelle caratteristiche del suo tracciato EEG estratto in tempo reale. L’obiettivo della tesi svolta è stato realizzare un sistema integrato, sviluppato in LabView che implementasse il paradigma BCI SSVEP-based appena descritto, consentendo di: 1. Configurare la generazione di due stimoli luminosi attraverso l’utilizzo di LED esterni; 2. Sincronizzare l’acquisizione del segnale EEG con tale stimolazione; 3. Estrarre features (attributi caratteristici di ciascuna classe) dal suddetto segnale ed utilizzarle per addestrare un classificatore SVM; 4. Utilizzare il classificatore per realizzare un’interfaccia BCI realtime con feedback per l’utente. Il sistema è stato progettato con alcune delle tecniche più avanzate per l’elaborazione spaziale e temporale del segnale ed il suo funzionamento è stato testato su 4 soggetti sani e comparato alle più moderne BCI SSVEP-based confrontabili rinvenute in letteratura.
Resumo:
Nel quarto capitolo introduco il problema e spiego il funzionamento generale della macchina senza essere troppo dettagliato per mantenere i segreti industriali che siamo tenuti a rispettare. Le proposte di soluzioni sono state sviluppate sia da me, ragionando sul gruppo singolo ma anche sul gruppo complessivo in generale, altre invece sono state proposte dal mio correlatore, l’ingegner Fabrizio Rimondi, e anche il confronto con altri colleghi dell’ufficio tecnico è stato fondamentale per la realizzazione e il funzionamento del gruppo. Nel capitolo successivo ho spiegato in dettaglio le mie idee di soluzioni mettendo i relativi disegni di ogni componente di volta in volta dopo ogni modifica significativa. Ad ogni proposta ho cercato sempre di mettere le mie opinioni in merito cercando di valutare al meglio ogni tipo di approccio. Durante lo studio dei vari casi mi sono interfacciato continuamente con i fornitori per sapere se alcune delle nostre idee fossero realizzabili e quindi capire se continuare con una certa decisione o cambiare metodo di risoluzione. Dopo aver ideato 4 tipi di soluzioni abbiamo avuto un confronto con l’azienda cliente sentendo anche la loro opinione e arrivando alla decisione finale, portando delle modifiche a una delle soluzioni che ci è sembrata la più adatta al caso. Successivamente per capire se quel tipo di soluzione fosse possibile da implementare ho cercato vari fornitori per sentire la loro opinione e sapere se alcuni componenti fossero realizzabili portando le ultime modifiche alle singole parti. Successivamente nel settimo capitolo ho iniziato uno studio sul gruppo pompa da scegliere per collegarlo al gruppo oggetto di studio. Inizialmente ho fatto un’introduzione generale sulle pompe a vuoto e compressori volumetrici, dopodiché ho cercato, tra i vari cataloghi disponibili su internet, una pompa a vuoto idonea per i parametri richiesti dall’azienda cliente.
Resumo:
Textual cultural heritage artefacts present two serious problems for the encoder: how to record different or revised versions of the same work, and how to encode conflicting perspectives of the text using markup. Both are forms of textual variation, and can be accurately recorded using a multi-version document, based on a minimally redundant directed graph that cleanly separates variation from content.
Resumo:
Questa tesi si pone come obiettivo quello di esplorare la possibilità di evolvere automi cellulari utilizzando algoritmi genetici al fine di trovare delle regole evolutive che permettano di generare un'immagine binaria qualunque a partire da una configurazione iniziale fissata.
Resumo:
I test di qualifica a vibrazioni vengono usati in fase di progettazione di un componente per verificarne la resistenza meccanica alle sollecitazioni dinamiche (di natura vibratoria) applicate durante la sua vita utile. La durata delle vibrazioni applicate al componente durante la sua vita utile (migliaia di ore) deve essere ridotta al fine di realizzare test fattibili in laboratorio, condotti in genere utilizzando uno shaker elettrodinamico. L’idea è quella di aumentare l’intensità delle vibrazioni riducendone la durata. Esistono diverse procedure di Test Tailoring che tramite un metodo di sintesi definiscono un profilo vibratorio da applicare in laboratorio a partire dalle reali vibrazioni applicate al componente: una delle metodologie più comuni si basa sull’equivalenza del danno a fatica prodotto dalle reali vibrazioni e dalle vibrazioni sintetizzate. Questo approccio è piuttosto diffuso tuttavia all’autore non risulta presente nessun riferimento in letteratura che ne certifichi la validità tramite evidenza sperimentalmente. L’obiettivo dell’attività di ricerca è stato di verificare la validità del metodo tramite una campagna sperimentale condotta su opportuni provini. Il metodo viene inizialmente usato per sintetizzare un profilo vibratorio (random stazionario) avente la stessa durata di un profilo vibratorio non stazionario acquisito in condizioni reali. Il danno a fatica prodotto dalla vibrazione sintetizzata è stato confrontato con quello della vibrazione reale in termini di tempo di rottura dei provini. I risultati mostrano che il danno prodotto dalla vibrazione sintetizzata è sovrastimato, quindi l’equivalenza non è rispettata. Sono stati individuati alcuni punti critici e sono state proposte alcune modifiche al metodo per rendere la teoria più robusta. Il metodo è stato verificato con altri test e i risultati confermano la validità del metodo a condizione che i punti critici individuati siano correttamente analizzati.
Resumo:
Uno dei problemi che affligge le segreterie didattiche almeno una volta l’anno è la creazione di un orario delle lezioni che soddisfi sia docenti che studenti. Questo lavoro viene solitamente svolto a mano dagli addetti ai lavori che, muniti di tanta pazienza e con i dati alla mano, compongono l’orario facendo attenzione a tenere in considerazione tutti i dettagli. Con il lavoro svolto per questa tesi si intende migliorare la situazione attuale, fornendo agli addetti ai lavori uno strumento che sia in grado di generare un orario completo e soddisfacente, a partire dai dati a loro disposizione.
Resumo:
I sistemi esperti sono programmi che cercano di riprodurre le prestazioni di esperti umani nella risoluzione di problemi specifici. Essi rappresentano il più conosciuto risultato pratico della ricerca in intelligenza artificiale. Ne vengono analizzate la struttura interna, i paragidmi su cui si basano, i componenti che ne fanno parte e i linguaggi di programmazione principali. Viene studiato uno dei primi distemi esperti: il MYCIN. Esso opera nel campo medico ed è stato di notevole importanza e innovazione nei primi anni in cui questi sistemi venivano sviluppati.
Resumo:
La comprensione delle proprietà e delle meccaniche di funzionamento dei sistemi complessi e dinamici che ci circondano è uno degli obiettivi principali delle discipline ingegneristiche e scientifiche. Lo sviluppo nel campo dell'Intelligenza Artificiale ha permesso la creazione di entità robotiche sempre più intelligenti, in grado di manifestare comportamenti notevoli e di raggiungere gli obiettivi prefissati: la progettazione di software di controllo ha velocemente ricevuto una crescente responsabilità. Questo elaborato si propone di inquadrare in generale la situazione della progettazione di software di controllo robotici, focalizzandosi in particolare sulle tecniche di progettazione automatica di programmi per robot: dopo aver inquadrato il background su cui si basa la progettazione automatica ed aver mostrato una panoramica dei principali metodi di progettazione diretta, vengono elencate e spiegate le tecniche più utilizzate ed interessanti della progettazione automatica di programmi per robot.
Resumo:
In letteratura sono presenti numerosi studi che descrivono i fattori che influenzano la vita a fatica di un laminato in CFRP e le modalità di propagazione ed accrescimento a fatica di un difetto. Tuttavia non sono presenti studi approfonditi che leghino l’effetto che può avere la grammatura, sulla vita a fatica del laminato. Il lavoro sperimentale oggetto di questa tesi vuole intendersi un lavoro preliminare, a carattere esplorativo, sullo studio della sensibilità della grammatura sulla resistenza a fatica di laminati in CFRP, attraverso test di flessione a fatica su due configurazioni di provini di grammature differenti (600 e 800 gr/m^2), con e senza inserimento di un difetto artificiale rappresentato da un intaglio sugli ultimi strati del laminato e test di flessione eseguito in accordo allo standard ASTM D2344/D2344M. I test a fatica hanno evidenziato una sensibile riduzione della vita per i provini senza difetto realizzati con l’800 gr/m^2 rispetto a quelli realizzati con il 600 gr/m^2. Per quanto concerne la tolleranza al danno, i provini realizzati con 600 gr/m^2 hanno evidenziato una sensibilità maggiore all’effetto di intaglio, pur avendo un comportamento migliore rispetto a quelli realizzati con l’800 gr/m^2.
Resumo:
L'informatica e le sue tecnologie nella società moderna si riassumono spesso in un assioma fuorviante: essa, infatti, è comunemente legata al concetto che ciò che le tecnologie ci offrono può essere accessibile da tutti e sfruttato, all'interno della propria quotidianità, in modi più o meno semplici. Anche se quello appena descritto è un obiettivo fondamentale del mondo high-tech, occorre chiarire subito una questione: l'informatica non è semplicemente tutto ciò che le tecnologie ci offrono, perchè questo pensiero sommario fa presagire ad un'informatica "generalizzante"; l'informatica invece si divide tra molteplici ambiti, toccando diversi mondi inter-disciplinari. L'importanza di queste tecnologie nella società moderna deve spingerci a porre domande, riflessioni sul perchè l'informatica, in tutte le sue sfaccettature, negli ultimi decenni, ha portato una vera e propria rivoluzione nelle nostre vite, nelle nostre abitudini, e non di meno importanza, nel nostro contesto lavorativo e aziendale, e non ha alcuna intenzione (per fortuna) di fermare le proprie possibilità di sviluppo. In questo trattato ci occuperemo di definire una particolare tecnica moderna relativa a una parte di quel mondo complesso che viene definito come "Intelligenza Artificiale". L'intelligenza Artificiale (IA) è una scienza che si è sviluppata proprio con il progresso tecnologico e dei suoi potenti strumenti, che non sono solo informatici, ma soprattutto teorico-matematici (probabilistici) e anche inerenti l'ambito Elettronico-TLC (basti pensare alla Robotica): ecco l'interdisciplinarità. Concetto che è fondamentale per poi affrontare il nocciolo del percorso presentato nel secondo capitolo del documento proposto: i due approcci possibili, semantico e probabilistico, verso l'elaborazione del linguaggio naturale(NLP), branca fondamentale di IA. Per quanto darò un buono spazio nella tesi a come le tecniche di NLP semantiche e statistiche si siano sviluppate nel tempo, verrà prestata attenzione soprattutto ai concetti fondamentali di questi ambiti, perché, come già detto sopra, anche se è fondamentale farsi delle basi e conoscere l'evoluzione di queste tecnologie nel tempo, l'obiettivo è quello a un certo punto di staccarsi e studiare il livello tecnologico moderno inerenti a questo mondo, con uno sguardo anche al domani: in questo caso, la Sentiment Analysis (capitolo 3). Sentiment Analysis (SA) è una tecnica di NLP che si sta definendo proprio ai giorni nostri, tecnica che si è sviluppata soprattutto in relazione all'esplosione del fenomeno Social Network, che viviamo e "tocchiamo" costantemente. L'approfondimento centrale della tesi verterà sulla presentazione di alcuni esempi moderni e modelli di SA che riguardano entrambi gli approcci (statistico e semantico), con particolare attenzione a modelli di SA che sono stati proposti per Twitter in questi ultimi anni, valutando quali sono gli scenari che propone questa tecnica moderna, e a quali conseguenze contestuali (e non) potrebbe portare questa particolare tecnica.