904 resultados para complessità computazionale primalità problemi polinomiali algoritmo aks


Relevância:

20.00% 20.00%

Publicador:

Resumo:

Il percorso sui Frammenti di Erodoto è cronologico. L'introduzione presenta criteri di lavoro, un esempio di studio sul Proemio delle Storie e la struttura generale. Per ogni momento è preso in considerazione un fenomeno particolare con un esempio. Il primo caso è contemporaneo ad Erodoto. Si tratta di un test che riguarda la criticità di alcuni concetti chiave tradizionali: intertestualità e riferimenti letterali. Il secondo capitolo è uno studio sulla storiografica di IV secolo a.C., periodo di fioritura e determinazione delle norme del genere. Qui si mettono in luce la criticità dei frammenti multipli aprendo in questo modo ampie possibilità di ricerca. Il capitolo successivo, sulla tradizione papiracea mostra il passaggio storico tra la tradizione indiretta a la tradizione manoscritta e permette uno sguardo all'epoca alessandrina. Include un catalogo ed alcuni aggiornamenti. Il capitolo quinto pone invece problemi tradizionali di trasmissione delle tradizioni storiche affrontando lo studio di FGrHist 104, testo che permette di osservare passaggi della storiografia di quinto e quarto secolo avanti Cristo. I due capitoli sulle immagini e sul Rinascimento, paralleli per quanto riguarda i riferimenti cronologici, offrono un ponte per passare dal discorso storiografico a quello in cui la consapevolezza di Erodoto è già maturata come parte della ”cultura”. Alto Medioevo, Umanesimo e Rinascimento offrono spazio a storie delle Storie che iniziano ad essere quasi di ricezione di Erodoto. Questo tema è l'oggetto dei due capitoli finali, studi legati alla presenza o assenza di Erodoto in discipline e pensieri moderni e contemporanei: il pensiero di genere e l’analisi conversazionale. Le appendici completano soprattutto il capitolo su Aristodemo con uno studio sul codice che lo trasmette, il papiro P.Oxy 2469 e il testo stesso, con traduzione e commento storico. Il lavoro si completa con una premessa, una bibliografia strutturata e indici di persone e passi citati.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

This thesis aimed at addressing some of the issues that, at the state of the art, avoid the P300-based brain computer interface (BCI) systems to move from research laboratories to end users’ home. An innovative asynchronous classifier has been defined and validated. It relies on the introduction of a set of thresholds in the classifier, and such thresholds have been assessed considering the distributions of score values relating to target, non-target stimuli and epochs of voluntary no-control. With the asynchronous classifier, a P300-based BCI system can adapt its speed to the current state of the user and can automatically suspend the control when the user diverts his attention from the stimulation interface. Since EEG signals are non-stationary and show inherent variability, in order to make long-term use of BCI possible, it is important to track changes in ongoing EEG activity and to adapt BCI model parameters accordingly. To this aim, the asynchronous classifier has been subsequently improved by introducing a self-calibration algorithm for the continuous and unsupervised recalibration of the subjective control parameters. Finally an index for the online monitoring of the EEG quality has been defined and validated in order to detect potential problems and system failures. This thesis ends with the description of a translational work involving end users (people with amyotrophic lateral sclerosis-ALS). Focusing on the concepts of the user centered design approach, the phases relating to the design, the development and the validation of an innovative assistive device have been described. The proposed assistive technology (AT) has been specifically designed to meet the needs of people with ALS during the different phases of the disease (i.e. the degree of motor abilities impairment). Indeed, the AT can be accessed with several input devices either conventional (mouse, touchscreen) or alterative (switches, headtracker) up to a P300-based BCI.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

Il tumore al seno si colloca al primo posto per livello di mortalità tra le patologie tumorali che colpiscono la popolazione femminile mondiale. Diversi studi clinici hanno dimostrato come la diagnosi da parte del radiologo possa essere aiutata e migliorata dai sistemi di Computer Aided Detection (CAD). A causa della grande variabilità di forma e dimensioni delle masse tumorali e della somiglianza di queste con i tessuti che le ospitano, la loro ricerca automatizzata è un problema estremamente complicato. Un sistema di CAD è generalmente composto da due livelli di classificazione: la detection, responsabile dell’individuazione delle regioni sospette presenti sul mammogramma (ROI) e quindi dell’eliminazione preventiva delle zone non a rischio; la classificazione vera e propria (classification) delle ROI in masse e tessuto sano. Lo scopo principale di questa tesi è lo studio di nuove metodologie di detection che possano migliorare le prestazioni ottenute con le tecniche tradizionali. Si considera la detection come un problema di apprendimento supervisionato e lo si affronta mediante le Convolutional Neural Networks (CNN), un algoritmo appartenente al deep learning, nuova branca del machine learning. Le CNN si ispirano alle scoperte di Hubel e Wiesel riguardanti due tipi base di cellule identificate nella corteccia visiva dei gatti: le cellule semplici (S), che rispondono a stimoli simili ai bordi, e le cellule complesse (C) che sono localmente invarianti all’esatta posizione dello stimolo. In analogia con la corteccia visiva, le CNN utilizzano un’architettura profonda caratterizzata da strati che eseguono sulle immagini, alternativamente, operazioni di convoluzione e subsampling. Le CNN, che hanno un input bidimensionale, vengono solitamente usate per problemi di classificazione e riconoscimento automatico di immagini quali oggetti, facce e loghi o per l’analisi di documenti.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

Implementazione mediante librerie MPI di un algoritmo genetico parallelo per risolvere il problema sulla k-colorabilità. La tesi descrive la versione sequenziale dell'algoritmo genetico di riferimento e l'implementazione della sua versione parallela. Vi è una fase di analisi dei risultati ottenuti dai test effettuati su una macchina ad architettura parallela.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

La terminologia informatica e di Internet in spagnolo è caratterizzata da una forte instabilità lessicale e semantica. La grande presenza di anglicismi che si creano con enorme rapidità, impedisce il corretto processo di incorporazione di tali termini nello spagnolo, favorendo così la convivenza di lessico inglese e termini solo parzialmente adattati alla lingua spagnola, dei quali spesso non si conosce l'esatto significato. I traduttori che operano in queste aree linguistiche, così come gli informatici e tutti gli interessati al corretto utilizzo di questa terminologia, per risolvere le problematiche che incontrano, fanno uso oggi soprattutto di risorse online più facilmente aggiornabili ed accessibili rispetto ai classici dizionari cartacei. Tra queste, sono molto importanti gli spazi che permettono la collaborazione diretta tra professionisti del settore, che favoriscono un approccio dinamico e contestuale nella risoluzione di tali dubbi. Il Foro Tic del Centro Virtual Cervantes, dedicato alla discussione su tale linguaggio, raccoglie interessanti dibattiti sull'argomento.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

La tomosintesi digitale computerizzata è una particolare tecnica che permette di ricostruire una rappresentazione 3D di un oggetto, con un numero finito di proiezioni su un range angolare limitato, sfruttando le convenzionali attrezzature digitali a raggi X. In questa tesi è stato descritto un modello matematico per la ricostruzione dell’immagine della mammella nella tomosintesi digitale polienergetica che tiene conto della varietà di materiali che compongono l’oggetto e della natura polienergetica del fascio di raggi X. Utilizzando questo modello polienergetico-multimateriale, la ricostruzione dell’immagine di tomosintesi è stata ricondotta alla formulazione di un problema dei minimi quadrati non lineare su larga scala e risolverlo ha permesso la ricostruzione delle percentuali dei materiali del volume assegnato. Nelle sperimentazioni sono stati implementati il metodo del gradiente, il metodo di Gauss-Newton ed il metodo di Gauss-Newton CGLS. E' stato anche utilizzato l’algoritmo trust region reflective implementato nella funzione lsqnonlin di MATLAB. Il problema della ricostruzione dell'immagine di tomosintesi è stato risolto utilizzando questi quattro metodi ed i risultati ottenuti sono stati confrontati tra di loro.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

La sonnolenza durante la guida è un problema di notevole entità e rappresenta la causa di numerosi incidenti stradali. Rilevare i segnali che precedono la sonnolenza è molto importante in quanto, é possibile mettere in guardia i conducenti dei mezzi adottando misure correttive e prevenendo gli incidenti. Attualmente non esiste una metodica efficace in grado di misurare la sonnolenza in maniera affidabile, e che risulti di facile applicazione. La si potrebbe riconoscere da mutazioni di tipo comportamentale del soggetto come: presenza di sbadigli, chiusura degli occhi o movimenti di caduta della testa. I soggetti in stato di sonnolenza presentano dei deficit nelle loro capacità cognitive e psicomotorie. Lo stesso vale per i conducenti i quali, quando sono mentalmente affaticati non sono in grado di mantenere un elevato livello di attenzione. I tempi di reazione si allungano e la capacità decisionale si riduce. Ciò è associato a cambiamenti delle attività delta, theta e alfa di un tracciato EEG. Tramite lo studio dei segnali EEG è possibile ricavare informazioni utili sullo stato di veglia e sull'insorgenza del sonno. Come strumento di classificazione per elaborare e interpretare tali segnali, in questo studio di tesi sono state utilizzate le support vector machines(SVM). Le SVM rappresentano un insieme di metodi di apprendimento che permettono la classicazione di determinati pattern. Necessitano di un set di dati di training per creare un modello che viene testato su un diverso insieme di dati per valutarne le prestazioni. L'obiettivo è quello di classicare in modo corretto i dati di input. Una caratteristica delle SVM è una buona capacità di generalizzare indipendentemente dalla dimensione dello spazio di input. Questo le rende particolarmente adatte per l'analisi di dati biomedici come le registrazioni EEG multicanale caratterizzate da una certa ridondanza intrinseca dei dati. Nonostante sia abbastanza semplice distinguere lo stato di veglia dallo stato di sonno, i criteri per valutarne la transizione non sono ancora stati standardizzati. Sicuramente l'attività elettro-oculografica (EOG) riesce a dare informazioni utili riguardo l'insorgenza del sonno, in quanto essa è caratterizzata dalla presenza di movimenti oculari lenti rotatori (Slow Eye Movements, SEM) tipici della transizione dalla veglia alla sonno. L'attività SEM inizia prima dello stadio 1 del sonno, continua lungo tutta la durata dello stesso stadio 1, declinando progressivamente nei primi minuti dello stadio 2 del sonno fino a completa cessazione. In questo studio, per analizzare l'insorgere della sonnolenza nei conducenti di mezzi, sono state utilizzate registrazioni provenienti da un solo canale EEG e da due canali EOG. Utilizzare un solo canale EEG impedisce una definizione affidabile dell'ipnogramma da parte dei clinici. Quindi l'obiettivo che ci si propone, in primo luogo, è quello di realizzare un classificatore del sonno abbastanza affidabile, a partire da un solo canale EEG, al fine di verificare come si dispongono i SEM a cavallo dell'addormentamento. Quello che ci si aspetta è che effettivamente l'insorgere della sonnolenza sia caratterizzata da una massiccia presenza di SEM.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

Analisi della corrente rettificata di potassio IKr all'interno di tre modelli di potenziale d'azione ventricolare umano, e confronto con dati sperimentali in letteratura.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

L’idea di realizzare questo lavoro di ricerca sulla traduzione nell’ambito pubblicitario sorge da un interesse nell’analisi del linguaggio della pubblicità, sia nelle sue componenti psicologiche e persuasive che in quelle linguistiche. La pubblicità è oggi uno dei principali motori dell’economia, un canale di comunicazione diffuso in maniera sempre più capillare ed uno strumento estetico ed ideologico di massa, che condiziona il modo di guardare le cose in maniera decisiva. Con la globalizzazione e la necessità di esportare i prodotti di ogni paese a livello mondiale, ha assunto un’importanza fondamentale la traduzione degli annunci di promozione di questi prodotti finalizzata alla localizzazione dei messaggi pubblicitari, in contrasto alla tendenza alla globalizzazione linguistica. Questo lavoro si propone di analizzare proprio questo contrasto tra la necessità di adattare il testo al paese e alla cultura del destinatario e, d’altra parte, l’internazionalizzazione e standardizzazione dei messaggi, la situazione in cui questo contrasto sorge ed il modo in cui viene risolto. Partendo dalla descrizione delle origini del termine “pubblicità” nel tentativo di definirne il concetto, passando attraverso la descrizione dei suoi obiettivi e funzioni e descrivendo il processo persuasivo ed i diversi modi in cui la pubblicità può essere classificata, vengono spiegate le strategie traduttive del messaggio pubblicitario, le situazioni particolari in cui tali strategie sono applicate ed i loro fini. Vengono descritte le tecniche di traduzione applicate al nome del marchio, il modo in cui i riferimenti culturali presenti nell’annuncio vengono adattati ai diversi paesi e le tecniche traduttive adattate al mezzo di comunicazione e ai vari recettori. In seguito si descrive l’importanza della forza appellativa ed espressiva di ogni testo e della struttura testuale nella traduzione degli annunci e il modo in cui vengono adattati gli elementi grafici e la grafia durante la traduzione, terminando con alcuni esempi concreti di errori di traduzione di annunci pubblicitari.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

Nelle smart cities moderne, la mobilità di veicoli elettrici (EV) è considerata un fattore determinante nella riduzione del consumo di combustibili fossili e conseguenti emissioni inquinanti. Tuttavia, nonostante gli interessi e investimenti a livello globale, l'accettazione da parte degli utenti è ancora bassa, principalmente a causa della mancanza di infrastrutture e servizi a supporto dei guidatori di EV. Queste mancanze sono la causa principale della cosiddetta range anxiety (timore che il veicolo non abbia autonomia sufficiente per raggiungere la destinazione) e hanno portato al preconcetto che gli EV siano adatti alla sola percorrenza di brevi tragitti. Per contrastare questi problemi, in questo documento è proposta un'applicazione di route planning che supporti mobilità di EV anche su percorsi medio-lunghi, mediante utilizzo di un modello di predizione del consumo energetico e considerazione dell'eventuale necessità di ricarica. Saranno descritte tecniche per determinare il tragitto che un EV sia in grado di percorrere per arrivare a destinazione, in considerazione di restrizioni energetiche, fattore altimetrico del percorso ed eventuali operazioni di ricarica necessarie. Il modello di consumo e l'algoritmo che determina il miglior percorso (dal punto di vista energetico) sono implementati da un web service che interagisce con i servizi di Google Maps (per ottenere indicazioni stradali, dati altimetrici e informazioni in tempo reale sul traffico) e con servizi che offrono informazioni sulle stazioni di ricarica e relative posizioni. Dopo aver descritto il modello di consumo e l'algoritmo per la ricerca del percorso, sarà presentata l'architettura del servizio implementato. Sarà quindi fornita una valutazione del servizio, analizzandone performance e scalabilità, nonché l'efficacia nel supporto di percorsi di EV all'interno di scenari su larga scala (nello specifico la regione Emilia Romagna), attraverso tecniche di simulazione.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

Descrizione dell'algoritmo crittografico AES, criteri adottati dal NIST per la scelta di AES e considerazioni sulla sua sicurezza.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

L’attività di tesi è stata rivolta a realizzare l’accoppiamento tra modelli di reazione chimica e modelli di fluidodinamica per una reazione eterogenea solido-liquido in un reattore agitato, in ambito di un codice commerciale di fluidodinamica numerica. Lo studio ha avuto come punto di partenza la definizione e la discretizzazione del dominio di calcolo tramite un apposito programma. Per una trattazione completa, si sono svolti studi preliminari volti ad identificare le incertezze dovute ai metodi numerici e i limiti dovuti alla formulazione dei modelli per la descrizione del sistema. Lo studio si è svolto considerando sistemi di complessità crescente, partendo da simulazioni monofase fino ad arrivare allo studio di diverse soluzioni per sistemi reagenti con reazioni eterogenee solido-liquido. Questi ultimi esempi applicativi sono serviti come verifica del modello sviluppato (dove con modello si è indicato l’insieme dei modelli relativi alla fluidodinamica accoppiati al modello di reazione). Questa attività ha contribuito ad affrontare un problema di simulazione completa e completamente predittiva dei reattori chimici, essendo la letteratura a riguardo limitata, a differenza di quella relativa alle simulazioni puramente fluidodinamiche.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

Le reti di distribuzione sono normalmente esposte ai fulmini, i quali producono sovratensioni sia da eventi diretti che indiretti. Le sovratensioni indotte, prodotte da fulminazioni indirette, sono le più frequenti nelle reti di media tensione, e sono una delle maggiori cause di guasto e di malfunzionamento dei dispositivi della rete. E’ per ciò essenziale realizzare un’accurata valutazione delle prestazioni dei mezzi di protezione delle reti di distribuzione dai fulmini al fine di migliorare la continuità e la qualità del servizio. L’obiettivo della tesi è sviluppare una procedura basata sull'algoritmo genetico in grado di determinare il numero di scaricatori ed i punti ottimali di installazione, tenendo conto della particolare configurazione della rete oggetto di studio, in modo da garantire la protezione della rete e in particolare dei componenti più vulnerabili. La procedura deve essere generica, ovvero deve risolvere il problema per una qualsiasi topologia di rete di media tensione.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

Partiamo dal lavoro di Kolmogorov per definire una misura della quantità di informazione contenuta in una stringa tramite un approccio computazionale: la complessità di una stringa è la lunghezza del più corto programma capace di produrla. Vediamo poi gli sviluppi moderni di questa teoria, in particolare i contributi di Chaitin, e notiamo subito i forti legami con la teoria della probabilità e con l'entropia di Shannon. Successivamente proponiamo di identificare le stringhe casuali (nel senso intuitivo) con quelle algoritmicamente incomprimibili, seguendo l'idea che minore comprimibilità significhi minore regolarità e dunque maggiore casualità. Infine vediamo che, in effetti, le stringhe incomprimibili soddisfano tutte le proprietà stocastiche effettivamente verificabili, cioè le proprietà che la teoria della probabilità attribuisce a successioni di variabili aleatorie indipendenti e identicamente distribuite. Facciamo ciò in maniera generale utilizzando la notevole teoria di Martin-Löf e poi vediamo in dettaglio l'aspetto della normalità di Borel.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

Questo progetto di tesi ha come obiettivo lo sviluppo di un algoritmo per la correzione e la calibrazione delle immagini in microscopia a fluorescenza e della sua implementazione come programma. Infatti, senza tale calibrazione le immagini di microscopia a fluorescenza sarebbero intrinsecamente affette da molteplici tipi di distorsioni ottiche. Questo limita fortemente la possibilità di effettuare analisi quantitative del livello di fluorescenza osservato. Il difetto sul quale ci siamo soffermati è la disomogeneità di campo, ossia una non uniforme fluorescenza causata dalla forma irregolare del fascio di eccitazione. Per conseguire l'obiettivo da noi proposto è necessaria l'acquisizione, in parallelo al campione in esame, di immagini di calibrazione contenenti sfere nanometriche a fluorescenza nota. A partire da queste, tramite procedure di image processing da noi implementate, abbiamo stimato la funzione di correzione della fluorescenza, localmente per ogni punto dell'immagine. Per la creazione di tale algoritmo abbiamo ipotizzato una possibile distribuzione dell'intensità dovuta alla non omogeneità del fascio ed abbiamo quindi stimato i parametri tramite un'apposita procedura di maximum likelihood. Tale stima è stata eseguita tenendo conto di possibili effetti dovuti alla luminosità di background, alla sovrapposizione di più nanosfere e ad effetti di bordo nel corso dell'elaborazione. Questa procedura è stata ripetuta su quattro diverse immagini di calibrazione, per valutarne la consistenza e la validità. Inoltre, per poter verificare che il software di elaborazione abbia le desiderate proprietà di linearità tra segnale misurato ed intensità nota, ci siamo serviti di un'ulteriore immagine di calibrazione contenente una mistura di sfere nanometriche con intensità variabili su due ordini di grandezza. Il risultato di questo lavoro di tesi verrà incluso in un programma per la calibrazione delle immagini in fluorescenza acquisite al laboratorio di biofisica del Dipartimento di Fisica ed Astronomia di Bologna.