591 resultados para Legge di controllo leggi del moto droni Riccati
Resumo:
La presente tesi ha come obiettivo quello di illustrare il flusso informativo che gestisce lo scambio dei dati relativi a cure radioterapiche nell’ambiente di medicina nucleare. La radioterapia comprende tutte quelle cure a base di sostanze radioattive o radiazioni che vengono somministrate a scopo diagnostico o terapeutico. Le due tecniche più utilizzate sono la brachiradioterapia e la radioterapia a fasci esterni. La prima è utilizza solo in casi selezionati di tumori direttamente accessibili e la sua caratteristica principale è la rapida diminuzione della dose con l'allontanarsi dalla sorgente, la seconda tecnica invece consiste nell’irradiare la zona interessata dall’esterno, utilizzando come sorgente di radiazioni una macchina chiamata acceleratore lineare, posta all’esterno del corpo del paziente. Questa terapia ha come obiettivo primario quello di ottenere la migliore distribuzione di dose nel volume bersaglio, risparmiando quanto più possibile i tessuti sani. Già dalla nascita della radioterapia, questa tecnica era caratterizzata dalla presenza di immagini digitali, cioè al contrario di altri reparti radiologici dove le immagini diagnostiche venivano impresse su pellicole, qui le informazioni circolavano già in formato elettronico. Per questo motivo già da subito si è avvertita l’esigenza di trovare una modalità per lo scambio, in maniera efficiente e sicura, di dati clinici per organizzare al meglio la cura del paziente e la pianificazione, anche con macchinari di diversi produttori, del trattamento radioterapico. In tutto questo ha svolto un ruolo fondamentale la proposta di IHE del framework di medicina nucleare, dove si dettavano linee guida per coordinare in maniera semplice e vantaggiosa l’integrazione informativa dei vari attori del processo di cura radioterapico.
Resumo:
L’obiettivo del lavoro di tesi è quello di studiare l’integrazione del grafene con i processi tecnologici propri della tecnologia del silicio, per la realizzazione di dispositivi innovativi per la misura delle proprietà termiche e termoelettriche del grafene che sono tra le meno studiate ad oggi. L’attività sperimentale svolta, ha riguardato l’intero processo di produzione, processing ed integrazione tecnologica del grafene. Da una parte è stato messo a punto un processo ottimizzato, partendo da una approfondita ricerca bibliografica, per il trasferimento delle membrane dai substrati di crescita, in rame, a quelli di destinazione, SiO2 e Si3N4, mantenendo la completa compatibilità con i processi della microelettronica del silicio in particolare per quanto riguarda l’eliminazione dei residui metallici dalla sintesi. Dall’altra è stata sviluppata una procedura di patterning micrometrico del grafene, affidabile e riproducibile, e, soprattutto, compatibile con la microelettronica del silicio. Le membrane, cresciute tramite deposizione da fase vapore (Chemical Vapor Deposition), sono state caratterizzate tramite la microscopia elettronica, a scansione e in trasmissione, la microscopia ottica, spettroscopia Raman e microscopia a forza atomica, tecniche che sono state utilizzate per caratterizzare i campioni durante l'intero processo di patterning. Il processo di etching del grafene in ossigeno, realizzato con il plasma cleaner, strumento che nasce per la pulizia di campioni per microscopia elettronica, è stato messo a punto il attraverso una estesa attività di test sia dei parametri di funzionamento dello strumento che del fotoresist da utilizzare. La procedura di patterning micrometrico vera e propria, ha comportato di affrontare diverse classi di problemi, dalla rimozione del fotoresist con soluzioni diverse (soluzione di sviluppo dedicata e/o acetone) alla rimozione dei residui presenti sulle membrane di grafene anche a valle del patterning stesso. La rimozione dei residui tramite acido cloridrico, insieme ad una procedura di annealing a 400°C in aria per la rimozione dei residui del fotoresist polimerico che erano presenti a valle dell’etching in ossigeno, ha permesso di ottenere un patterning del grafene ben definito su scala micrometrica e una ridottissima presenza di residui. Le procedure ottimizzate di trasferimento e di patterning sono il principale avanzamento rispetto allo stato dell’arte. Le metodiche messe a punto in questo lavoro, consentiranno di integrare il grafene direttamente nel processo di micro-fabbricazione di dispositivi per misure termiche e termoelettriche, per i quali quali sono in realizzazione le maschere di processo che rappresentando la naturale conclusione del lavoro di tesi.
Resumo:
OPERA è un esperimento installato ai Laboratori del Gran Sasso, lungo la linea del fascio di neutrini CNGS prodotto al CERN. Il suo scopo principale è osservare - per la prima volta in modo diretto - il fenomeno dell'oscillazione di neutrini muonici del CNGS, in neutrini-tau. L'esperimento è attualmente in fase di analisi dati. Accanto al canale di oscillazione dominante nu_mu--> nu_tau OPERA può studiare anche il canale nu_mu--> nu_e grazie all'ottima capacità di identificazione degli elettroni. OPERA utilizza un bersaglio attivo, finemente segmentato in moduli ("brick") costituiti da pile di fogli di emulsioni nucleare e lastre di piombo. Ogni "brick", il cui spessore è equivalente a 10 lunghezze di radiazione, è un rivelatore "stand-alone" attraverso il quale è possibile identificare e ricostruire gli sciami elettromagnetici e quindi le interazioni a corrente carica di neutrini elettronici. Il progetto di tesi si inquadra in questo contesto. Gli obiettivi specifici sono: - implementazione di una nuova procedura di trigger applicata per l'identificazione degli sciami elettromagnetici; - validazione della suddetta procedura sui dati simulati.
Resumo:
Lo studio condotto in questa tesi ha lo scopo di esplorare possibili soluzioni alternative per aumentare la vita in esercizio di componenti per un contatto tribologico da strisciamento in motori idraulici. In particolare, per limitare l’usura e ridurre l’attrito fra i corpi a contatto, è stata presa in considerazione la deposizione di rivestimenti in carbonio amorfo idrogenato, appartenenti alla famiglia dei rivestimenti DLC (Diamond-Like Carbon), prodotti con tecnologia PACVD (Plasma Assisted Chemical Vapour Deposition), grazie alla collaborazione con la ditta STS srl presso la quale sono state prodotte ed in parte caratterizzate diverse tipologie di strati sottili a base carbonio-carbonio. Questa scelta è stata motivata dal fatto che i rivestimenti DLC combinano basso attrito ed alta resistenza ad usura, dato che l’elevata durezza (e resistenza ad usura) è data dalla presenza di un’elevata frazione di C ibridati sp3 (con struttura simil-diamante) fra loro interconnessi, mentre la tendenza al basso attrito contro la maggior parte degli antagonisti deriva dalla struttura lamellare (quindi a basso sforzo di taglio), tipica del C sp2 (simil-grafite), che permette lo scorrimento fra i piani basali. Nel corso del presente lavoro sono quindi stati presi in esame due gruppi di rivestimenti DLC, differenziati in base alla tipologia di interstrato impiegato per moderare le tensioni residue e migliorare l’adesione (CrN singolo strato o WC/C multistrato), depositati su acciaio 20MnV6 sottoposto preliminarmente a cementazione gassosa per ottenere una adeguata capacità di supporto del carico. Gli strati in esame sono stati caratterizzati dal punto di vista microstrutturale e meccanico (con prove sia di adesione e con prove di nanoindentazione). Successivamente, i materiali rivestiti sono stati sottoposti a prove tribologiche di laboratorio (block-on-ring) in condizioni di strisciamento non lubrificato, per effettuare una valutazione comparativa fra i rivestimenti ed identificare i meccanismi di usura prevalenti nelle diverse coppie tribologiche.
Resumo:
In questo lavoro di tesi si sono sviluppati un modello molecolare ed una metodologia Molecular Dynamics in grado di simulare il comportamento di particelle attive, alimentate da un motore molecolare, in matrici liquido-cristalline. In particolare, abbiamo sviluppato un metodo di calcolo della temperatura traslazionale ed un algoritmo di termalizzazione compatibili con le condizioni di non-equilibrio del sistema. Dall’analisi delle prove condotte sono emerse variazioni significative nei comportamenti collettivi dei campioni quali segregazioni e flussi coerenti caratterizzati da un alto grado di ordine nematico. Il modello proposto, pur nella nella sua semplicità, può costituire una base per future e più specifiche simulazioni.
Resumo:
Presentazione di alcuni indici di diagnosi detonazione e recenti sistemi di controllo di anticipo d'accensione.
Resumo:
Sono rari i problemi risolubili in maniera esatta in meccanica quantistica. Ciò è legato alle difficoltà matemtiche insite nella teoria dei quanti. Inoltre i problemi risolti, pur essendo in alcuni casi delle ottime approssimazioni, sono spesso delle astrazioni delle situazioni reali. Si pensi ad esempio al caso di una particella quantistica di un problema unidimensionale. Questi sistemi sono talmente astratti da violare un principio fondamentale, il principio di indetermi- nazione. Infatti le componenti dell’impulso e della posizione perpendicolari al moto sono nulle e quindi sono note con certezza ad ogni istante di tempo. Per poter ottenere una descrizione dei modelli che tendono alla realtà è necessario ricorrere alle tecniche di approssimazione. In questa tesi sono stati considerati i fenomeni che coinvolgono una interazione variabile nel tempo. In particolare nella prima parte è stata sviluppata la teoria delle rappresentazioni della meccanica quantistica necessaria per la definizione della serie di Dyson. Questa serie oper- atoriale dovrebbe convergere (il problema della convergenza non è banale) verso l’operatore di evoluzione temporale, grazie al quale è possibile conoscere come un sistema evolve nel tempo. Quindi riuscire a determinare la serie di Dyson fino ad un certo ordine costituisce una soluzione approssimata del problema in esame. Supponiamo che sia possibile scomporre l’hamiltoniana di un sistema fisico nella somma di due termini del tipo: H = H0 + V (t), dove V (t) è una piccola perturbazione dipendente dal tempo di un problema risolubile esattamente caratterizzato dall’hamiltoniana H0 . In tal caso sono applicabili i metodi della teoria perturbativa dipendente dal tempo. Sono stati considerati due casi limite, ovvero il caso in cui lo spettro dell’hamiltoniana imperturbata sia discreto e non degenere ed il caso in cui lo spettro sia continuo. La soluzione al primo ordine del caso discreto è stata applicata per poter formu- lare il principio di indeterminazione energia-tempo e per determinare le regole di selezione in approssimazione di dipolo elettrico. Il secondo caso è servito per spiegare il decadimento beta, rimanendo nel campo della teoria quantistica classica (per una trattazione profonda del problema sarebbe necessaria la teoria dei campi).
Resumo:
Questo lavoro ha l’obbiettivo di analizzare i principi che stanno alla base della plasmonica, partendo dallo studio dei plasmoni di superficie fino ad arrivare alle loro applicazioni. La prima parte di questa tesi riguarda l’aspetto teorico. Essendo essenzialmente eccitazioni collettive degli elettroni nell'interfaccia fra un conduttore ed un isolante, descritti da onde elettromagnetiche evanescenti, questi plasmoni superficiali, o polaritoni plasmonici di superficie (SPP), vengono studiati partendo dalle equazioni di Maxwell. Viene spiegato come questi SPP nascano dall’accoppiamento dei campi elettromagnetici con le oscillazioni degli elettroni del materiale conduttore e, utilizzando l’equazione dell’onda, si descrivono le loro proprietà in singola interfaccia e in sistemi multistrato. Il quinto capitolo analizza le metodologie di eccitazione di SPP. Sono descritte varie tecniche per l’accoppiamento di fase, per accennare poi a eccitazioni di SPP in guide d’onda, tramite fibra ottica. L’ultimo capitolo della prima parte è dedicato alla seconda tipologia di plasmoni: i plasmoni di superficie localizzati (LSP). Questi sono eccitazioni a seguito dell’accoppiamento fra elettroni di conduzione di nanoparticelle metalliche e il campo elettromagnetico ma che, a differenza dei SPP, non si propagano. Viene esplorata la fisica dei LSP trattando prima le interazioni delle nanoparticelle con le onde elettromagnetiche, poi descrivendo i processi di risonanza in una varietà di particelle differenti in numero, forma, dimensione e ambiente di appartenenza. La seconda parte della tesi riguarda invece alcune applicazioni. Vengono proposti esempi di controllo della propagazione di SPP nel contesto delle guide d’onda, analizzando l’indirizzamento di SPP su superfici planari e spiegando come le guide d’onda di nanoparticelle metalliche possano essere utilizzate per trasferire energia. Infine, viene introdotta la teoria di Mie per la diffusione e l’assorbimento della luce da parte di nanoparticelle metalliche, per quanto riguarda la colorazione apparente, con esempi sulla colorazione vitrea, come la famosa coppa di Licurgo.
Resumo:
Lo scopo di IDCardOCR è quello di permettere all'utente di acquisire i dati di una persona in formato strutturato eseguendo una semplice foto del suo documento di identità. I dati salvati saranno così a disposizione dell’utente in formato digitale. Permette, a differenze di altre applicazioni, la creazione di una maschera personalizzata dove è l’utente a decidere i dati da digitalizzare. Il riconoscimento ottico dei caratteri è implementato dal tool Tesseract-OCR Obiettivo della tesi è quello di approfondire lo studio dei sistemi di OCR e del loro funzionamento in ambiente Android, applicare tecniche di ritaglio e elaborazione delle immagini, approfondimento delle piattaforma di sviluppo. La tesi è cosi strutturata. Il primo capitolo contiene l’introduzione al problema, una panoramica sulle applicazioni esistenti e i motivi che ci hanno spinto ha scegliere la piattaforma di sviluppo Andriod. Il capitolo due tratta delle progettazione dell’applicazione attraverso diagrammi UML e introduce l’architettura del sistema. Il capitolo tre è incentrato sulla parte di sviluppo, infine nel quarto capitolo, si conclude la tesi con i risultati dei test effettuati e i possibili sviluppi futuri.
Resumo:
Il Golfo di Taranto è una baia storica all’interno del Mar Ionio Settentrionale, Mar Mediterraneo Orientale. Sebbene il Mar Mediterraneo rappresenti meno dell’1% della superficie oceanica, presenta un alto livello di diversità biologica e si inserisce tra i primi 25 Biodiversity Hot Spot a livello globale. Esso purtroppo è anche uno dei bacini più antropizzati del mondo; tali pressioni mettono a serio rischio la conservazione di numerose specie, tra cui i Cetacei. Attualmente non sono presenti lavori riportanti dati di abbondanza dei Cetacei nel Golfo di Taranto: la mia ricerca vuole contribuire a colmare questo vuoto conoscitivo ed aggiungere nuove conoscenze sull’abbondanza dei Cetacei nel Mar Mediterraneo. Le aree di studio prese in esame si trovano nel Golfo di Taranto, sono contigue ed hanno la stessa superficie. Utilizzando il metodo del transetto lineare ed il software Distance 6.0 è stato possibile, raccogliere i dati di abbondanza dei delfinidi Stenella coeruleoalba e Truncatus truncatus ed analizzarli, ottenendo delle stime di abbondanza da confrontare con la serie storica disponibile (2009-2014). L’utilizzo del metodo del Distance Sampling, applicato per la prima volta nel Golfo di Taranto, è stato fondamentale perché ha permesso di colmare una lacuna conoscitiva sulla consistenza numerica associata alla nota presenza dei Cetacei nel Mar Ionio Settentrionale. I risultati ottenuti hanno reso possibile il confronto delle stime di abbondanza ottenute nel Golfo di Taranto con quelle del bacino ligure-corso-provenzale del Mediterraneo (Santuario Pelagos). Infatti è stato possibile rilevare che S. coeruleoalba presenta abbondanze generalmente inferiori ed un trend in diminuzione nel Santuario Pelagos, in netto contrasto con le maggiori abbondanze ed il trend in incremento evidenziato nel Golfo di Taranto e sintetizzato in questa tesi. Si evince, quindi la massima urgenza nell’implementare lo studio nel Golfo di Taranto, laddove la presenza di differenti specie di Cetacei e le stime di abbondanza di S. coeruleoalba e T. truncatus evidenziano la necessità di interventi di gestione finalizzati alla conservazione del patrimonio di diversità biologica del Mediterraneo.
Resumo:
Lo studio stratigrafico di diverse prove geognostiche nel sottosuolo dell’alta pianura forlivese ha permesso di ricostruire uno scenario stratigrafico di dettaglio dei depositi tardoquaternari del Bacino Padano. Attraverso la realizzazione di una sezione stratigrafica, parallela al margine del bacino, nei territori compresi tra il comune di Forlì e Forlimpopoli, ottenuta utilizzando stratigrafie di pozzi per acqua, di sondaggi a carotaggio continuo e di prove penetrometriche corredati da datazioni radiometriche, ha evidenziato un’architettura stratigrafica tipica di una pianura alluvionale. L’analisi di facies e le correlazioni stratigrafiche mostrano un’evidente suddivisione dei depositi alluvionali in quattro intervalli stratigrafici a controllo glacio-eustatico. Alla base sono presenti depositi che possono essere attribuibili ad un sistema di regressione forzata (FST), durante i quali si verificherebbe l’incisione dei sistemi alluvionali. I corpi amalgamati di canale fluviale, invece, sarebbero riconducibili alla successiva fase di stazionamento basso del livello del mare (LST), avvenuto durante l’ultimo acme glaciale. Al di sopra di questi depositi, la presenza di corpi lenticolari, isolati, di canale fluviale, entro depositi fini di piana inondabile, è compatibile con una fase di sollevamento del livello del mare (depositi trasgressivi o TST) ed infine i depositi sommitali, prevalentemente fini, potrebbero rappresentare la fase di stazionamento alto del livello del mare (HST). La definizione della geometria dei corpi sepolti in Pianura Padana costituisce uno strumento di rilevante importanza nella ricerca e nella protezione della risorsa idrica: in particolare, l’applicazione dei principi di stratigrafia sequenziale risulta fondamentale nell’interpretazione della distribuzione spaziale dei corpi acquiferi.
Resumo:
Uno dei cardini nel programma di ricerca attuale del Large Hadron Collider (LHC) al CERN è l’approfondimento della conoscenza relativa al bosone di Higgs e agli accoppiamenti di questa particella, di recente scoperta, con le altre del Modello Standard. Il prossimo Run di LHC sarà caratterizzato da collisioni di fasci di protoni con un'energia di 6.5 TeV ciascuno e renderà possibile l’acquisizione di grandi campioni di dati nei quali si prevede un aumento della statistica per tipologie di eventi che fino a questo momento è stato problematico studiare. Tra questi la produzione per Higgs-strahlung del bosone di Higgs associato al bosone vettore Z, che, essendo caratterizzata da una bassa sezione d’urto, è sempre stata considerata un processo molto difficile da investigare. Questa tesi fornisce uno studio preliminare della fattibilità di recuperare in modo efficiente questo canale, con l’obiettivo di individuare alcuni tagli che permettano di ripulire il grande fondo adronico prodotto nelle collisioni protone-protone a LHC. La presente analisi è stata effettuata su campioni di dati ottenuti tramite una generazione Monte Carlo e una simulazione parametrica del rivelatore ATLAS. Sebbene la statistica dei campioni MC sia ancora limitata e la simulazione della risposta del detector non sia dettagliata, le tecniche e i tagli utilizzati in questo lavoro di tesi potranno dare utili indicazioni per futuri studi più dettagliati e per l'investigazione di questo processo una volta che i dati del prossimo Run di LHC a √s=13 TeV saranno disponibili.
Resumo:
Riassunto Tesi Nella presente dissertazione viene esposto un esperimento condotto con la partecipazione di 13 studenti del Corso Magistrale di Interpretazione di Conferenza della Scuola di Lingue e Letterature, Traduzione e Interpretazione di Forlì al fine di comprendere se la memoria di lavoro possa essere potenziata in seguito ad un periodo di 7 mesi nel quale gli studenti si sono costantemente confrontati con lezioni ed esercizi di memorizzazione, interpretazione simultanea e interpretazione consecutiva. Nel primo capitolo, dopo una breve introduzione agli studi riguardanti la memoria, vengono descritti i diversi tipi di quest'ultima che congiuntamente alla memoria di lavoro, vengono attivati durante l'interpretazione simultanea. Nel secondo capitolo la memoria di lavoro viene messa in relazione con l'interpretazione simultanea. Oltre alle teorie più influenti circa i meccanismi cognitivi e le singole attività che sottendono il processo dell’IS, vengono esposti i principali modelli di elaborazione dell'informazione durante l'attività in questione. In chiusura del secondo capitolo, vengono esposti brevemente altri aspetti cruciali per l'interpretazione simultanea, utili al fine di comprendere le teorie sviluppate e gli studi condotti in merito: attenzione, chunking, soppressione articolatoria e ripetizione subvocalica, accennando inoltre ad un'interessante ricerca condotta per monitorare l'attivazione e il mutamento delle diverse aree cerebrali durante l'utilizzo di una lingua straniera. Nel terzo capitolo vengono passati in rassegna i principali studi empirici condotti sull'interpretazione simultanea per comprendere il comportamento della memoria di lavoro. Infine, nel quarto capitolo viene presentato l'esperimento condotto allo scopo di verificare l'ipotesi alla base della presente tesi: un aumento dell'esperienza in IS può condurre al potenziamento ML. Dopo aver esposto lo scopo, il metodo e il materiale vengono presentati i risultati che, sebbene siano stati raccolti su un campione abbastanza esiguo, vanno a confermare l'ipotesi all'origine della ricerca.
Resumo:
Il presente lavoro nasce dall’esigenza maturata, oramai da diversi decenni, di conoscere l’ambiente che circonda i beni culturali, in virtù della loro intrinseca natura non rinnovabile. La ricerca si compone di due parti: l’analisi microclimatica e lo sviluppo di una metodologia innovativa di analisi relativa del rischio, che vede come bersagli i beni culturali, con particolare riferimento a quelli librari. In particolare, sulla base dei dati di temperatura, umidità relativa, concentrazioni di NO2 e O3, misurati in alcune sale della Biblioteca Classense di Ravenna, nel periodo dal 21 luglio al 7 agosto 2014, è stato possibile caratterizzare diversi ambienti confinati, tra loro eterogenei, e confrontare le dinamiche che s’instaurano tra l’ambiente indoor e quello outdoor, mediante, ad esempio, il calcolo del cosiddetto rapporto Indoor/Outdoor (I/O) e la stima del tasso di ventilazione. È stata poi proposta una metodologia di analisi del rischio che valuta i suddetti parametri microclimatici, come fattori di rischio. Attraverso tale metodologia, che identifica gli eventuali stati anomali nel sistema, è possibile giungere ad una definizione delle priorità per quegli aspetti esaminati che potrebbero discostarsi dalle condizioni di benessere, provocando un’accelerazione dei processi di degrado dei beni librari. Tale metodologia, infine, è stata applicata alle sale oggetto dell’analisi microclimatica, allo scopo di identificare eventuali fattori di rischio microclimatici.
Resumo:
Negli ultimi anni, studi scientifici hanno evidenziato come il nostro sistema nervoso abbia la capacità di combinare e integrare informazioni di diversa natura sensoriale. Una interazione ampiamente studiata è quella audiovisiva. Oggetto principale di questa tesi è un esempio di interazione audiovisiva, ovvero un fenomeno illusorio visivo indotto dal suono che prende il nome “sound-induced flash illusion”: quando una coppia flash+beep è preceduta o seguita - ad una distanza temporale detta Stimulus Onset Asynchorny (SOA) - da un secondo beep, i soggetti spesso riportano la percezione di aver visto due flash. Il fenomeno illusorio tende a svanire al crescere dell’SOA, e si definisce “finestra temporale d’integrazione” l’intervallo di valori di SOA all’interno del quale si verifica l’illusione. Il fenomeno illusorio è presente anche nei soggetti autistici; questi, rispetto ai soggetti sani, presentano una maggiore propensione nel riportare l’illusione e una finestra temporale d’integrazione di durata maggiore. Obiettivo di questo lavoro è stato approfondire questi fenomeni di interazione mediante l’utilizzo di un modello di rete neurale precedentemente sviluppato dal gruppo di Bioingegneria dell’Università di Bologna. Tale modello era in grado di simulare il fenomeno illusorio, ma presentava il limite di non considerare l’intera finestra temporale in cui tale fenomeno si verifica. Un’analisi di sensitività del modello ha individuato quali variazioni dei parametri potessero spiegare l’illusione in un ampio intervallo temporale e interpretare le differenze tra soggetti sani e soggetti autistici. I risultati delle simulazioni hanno evidenziato un soddisfacente accordo con i dati di letteratura. Le analisi svolte possono contribuire a chiarire i meccanismi alla base del fenomeno illusorio e della finestra temporale in cui esso ha luogo e a fare luce sulle possibili alterazioni nelle singole aree cerebrali e nella interazione tra esse che possono interpretare le differenze osservate nei soggetti autistici rispetto ai sani.