1000 resultados para numeri trascendenti pi greco numero di Nepero Liouville Lindemann
Resumo:
L’autonomia è una competenza imprescindibile per poter vivere nella società in maniera attiva e partecipativa. Tuttavia, l’apprendimento di questa abilità non è per nulla scontato, soprattutto quando sono coinvolte persone con disabilità intellettive: infatti, un’attività di vita quotidiana relativa all’ambito dell’autonomia è composta da un certo numero di azioni che devono essere eseguite in una sequenza precisa da memorizzare. Questo può rappresentare uno scoglio complesso da superare, con il risultato che spesso il compito viene portato a termine solo ed esclusivamente in presenza di una persona di supporto, come un caregiver o un genitore, che si occupa di guidare l’assistito durante l’attività. Nasce quindi l’esigenza di fornire un supporto ed un sostegno all’acquisizione di alcune competenze di autonomia, il quale si sostituisca gradualmente all’aiuto di persone terze, compatibilmente al grado di abilità degli individui. In questo scenario si colloca il lavoro di tesi, che consiste nella progettazione, sviluppo e testing di una tecnologia assistiva che permetta di creare scenari di apprendimento per l’acquisizione di alcune competenze relative all’ambito dell’autonomia della vita quotidiana. Il documento ha l’obiettivo di presentare il contesto di partenza del progetto per poi illustrare tutte le fasi di design e progettazione, motivando le scelte implementative. Tutto il lavoro è stato fortemente condizionato dai principi del Design Thinking, ovvero metodologie di design che puntano a sviluppare soluzioni inclusive e accessibili, incentrate sui reali bisogni degli individui. Per questo motivo è stato indispensabile coinvolgere diversi utenti e stakeholder sin dagli inizi del progetto. I test presentati dimostrano che l’applicazione si può considerare una buona base per diventare una tecnologia assistiva accessibile e che possa rispondere a diversi bisogni educativi nell’ambito dell’acquisizione delle autonomie di vita quotidiana.
Resumo:
Il seguente lavoro ha l’obiettivo di mettere in evidenza le varie metodiche che vengono utilizzate per la diagnosi di tutte le malattie che riguardano l’apparato digerente, esaminando le varie tecnologie, la loro manutenzione e il ruolo che l’ingegnere clinico assume in questa tecnologia. In particolare, ho approfondito la video capsula endoscopica, l’ultima tecnologia all’avanguardia verso la quale si stanno concentrando gli studi. La tematica affrontata riguarda la strumentazione utilizzata nell’Endoscopia Digestiva, che utilizza attualmente endoscopi flessibili per visualizzare il sistema digerente. Gli endoscopi fanno parte dell’area diagnostica per bioimmagini, utilizzano quindi apparecchiature biomediche per catturare immagini delle strutture biologiche, potendo così valutare le diverse patologie o le condizioni degli organi stessi. Grazie agli studi e al progredire della scienza, è oggi possibile catturare immagini dinamiche e radiologiche, non più solo statiche e unicamente anatomiche. Alcune di queste tecnologie, così come gli endoscopi e gli ecografi, oltre alla capacità diagnostica, hanno sviluppato la possibilità di intervenire direttamente durante l’esame endoscopico, aiutando la terapia di alcune patologie. Per quanto riguarda la video capsula endoscopica, la possibilità di eseguire biopsie si sta sviluppando, e sono già presenti modelli concreti per il raggiungimento di questo obiettivo. Col passare del tempo si è ridotta notevolmente anche l’invasività dell’esame, che ha portato ad un aumento del numero di prestazioni, dotazione di endoscopi e di tutte le altre attrezzature ad esso associate. Lo sviluppo di queste tecnologie ha portato benefici anche alla qualità della prevenzione e del trattamento di queste patologie. Attualmente queste tecnologie sono indispensabili all’interno di un complesso ospedaliero, ed è per questo che è diventata necessaria anche una loro manutenzione continua, che comporta fattori organizzativi e gestionali.
Resumo:
La pubblicità – quella televisiva passando poi a quella sul web e sui social – subisce numerose trasformazioni che investono soprattutto i metodi comunicativi con cui sviluppare la propria narrazione. Oggi, di fatto, il mondo della pubblicità non si limita alla sola sponsorizzazione di un brand e dei suoi prodotti, ma si cala sempre più nelle dinamiche sociali, civili ed economiche che caratterizzano il nostro quotidiano. La comunicazione commerciale, dunque, si prefigge di essere il più inclusiva possibile, di coinvolgere storie, situazioni e personaggi che, nella pubblicità del “passato”, sarebbero stati esclusi totalmente o rappresentati in modo stereotipato. Se risulta possibile affermare che, nel panorama mediale odierno, si stia rivolgendo maggiore attenzione alle tematiche LGBTQ+, alle lotte contro la discriminazione di genere e all’ingaggio di personaggi appartenenti alla comunità queer, è altrettanto vero affermare come sia ancora possibile ricadere in rappresentazioni stereotipate e strategie di marketing che si fingono inclusive, solo per cavalcare l’onda del successo di eventi quali il Pride. All’interno di questo elaborato si andrà, in primis, a tracciare la storia culturale della comunità LGBTQ+ e ad approfondire come sia evoluta la sua presenza nei diversi media audiovisivi – dal cinema alle serie tv fino alla pubblicità. Ci si concentrerà poi sugli stereotipi ancora ricorrenti in pubblicità televisiva, ossia quello di genere. L’obiettivo della tesi è verificare se sia giusto parlare di inclusione o se si tratti solo una mera strategia di marketing, ossia di rainbow-washing, quando i brand si avvalgono di immagini e di personaggi LGBTQ+ nei propri spot. Nel capitolo finale, attraverso di un’analisi qualitativa di n. 100 spot televisivi americani, si andranno ad evidenziare i trend LGBTQ+, ossia in che modo oggi le pubblicità statunitensi sviluppano immagini, simboli, personaggi e storie LGBTQ+, realmente positive ed inclusive, in pubblicità.
Resumo:
La Macchina di Boltzmann Ristretta (RBM) è una rete neurale a due strati utilizzata principalmente nell'apprendimento non supervisionato. La sua capacità nel rappresentare complesse relazioni insite nei dati attraverso distribuzioni di tipo Boltzmann Gibbs la rende un oggetto particolarmente interessante per un approfondimento teoretico in ambito fisico matematico. In questa tesi vengono presentati due ambiti di applicazione della meccanica statistica all'apprendimento automatico. 1) La similarità della RBM a unità binarie con il modello di Ising permette di sfruttare un'espansione alle alte temperature per approssimare l'energia libera, termine presente nel gradiente della likelihoood e difficile da trattare numericamente. I risultati ottenuti con questa tecnica sul dataset MNIST sono paragonabili a quelli ottenuti dalla Contrastive Divergence, che utilizza invece metodi di Monte Carlo. 2) L'equivalenza statistica della variante ibrida di RBM con il modello di Hopfield permette di studiare la taglia del training set necessaria per l'apprendimento attraverso l'analisi del problema inverso, in cui i ruoli di spin e pattern sono invertiti. Viene quindi presentato un metodo basato sulla teoria di Gauge che permette di derivare il diagramma di fase del modello di Hopfield duale sulla linea di Nishimori in funzione della temperatura e del rapporto tra numero di campioni e dimensione del sistema.
Resumo:
Il telerilevamento satellitare costituisce una delle tecniche di osservazione maggiormente efficace nel monitoraggio e nello studio dell'estensione del manto nevoso. Il manto ricopre un ruolo di estrema importanza quale risorsa idrica per gli ecosistemi e per le applicazioni agricole e industriali. Inoltre, è un indicatore climatologico in un contesto di cambiamenti climatici regionali e globali. In questo senso, la copertura nevosa è da considerarsi come una importante risorsa economica e sociale. Lo scopo della presente tesi è di produrre mappe di copertura nevosa giornaliere per la stima dell'estensione del manto nevoso della regione Emilia-Romagna e di analizzare la sua variabilità spazio-temporale nel periodo 2000-2020. Le mappe sono state sviluppate sulla base dei prodotti di neve, M*D10A1, del sensore MODIS, che consistono in mappe di classificazione della copertura in funzione dell'indice NDSI. Inizialmente, è stato costruito un albero decisionale con criteri a soglia multipla in grado di rielaborare la classificazione della superficie del sensore e produrre mappe di copertura nevosa sulla base di tre classi: neve, no-neve e nube. L'accuratezza delle mappe è stata validata tramite test statistici effettuati confrontandole con i dati di altezza del manto nevoso in situ di 24 stazioni meteorologiche, per il periodo di compresenza dei dati 2000-2012. I risultati della procedura di validazione hanno mostrato come, in generale, vi sia buon accordo tra il dato satellitare e la rispettiva osservazione al suolo, soprattutto nei pressi di stazioni lontane da vegetazione sempreverde e/o di ambiente urbano. Infine, è stata valutata la variabilità climatologica dell'estensione del manto nevoso tramite l'elaborazione degli indici di neve SCF, SCD e diversi indici SCA. L'attenzione è stata particolarmente focalizzata sugli indici di massima estensione invernale del manto, del valore mediano e del numero di giorni con estensione superiore al 39.5% della regione.
Resumo:
Negli ultimi anni, a causa della crescente tendenza verso i Big Data, l’apprendimento automatico è diventato un approccio di previsione fondamentale perché può prevedere i prezzi delle case in modo accurato in base agli attributi delle abitazioni. In questo elaborato, verranno messe in pratica alcune tecniche di machine learning con l’obiettivo di effettuare previsioni sui prezzi delle abitazioni. Ad esempio, si può pensare all’acquisto di una nuova casa, saranno tanti i fattori di cui si dovrà preoccuparsi, la posizione, i metri quadrati, l’inquinamento dell’aria, il numero di stanze, il numero dei bagni e così via. Tutti questi fattori possono influire in modo più o meno pesante sul prezzo di quell’abitazione. E’ proprio in casi come questi che può essere applicata l’intelligenza artificiale, nello specifico il machine learning, per riuscire a trovare un modello che approssimi nel miglior modo un prezzo, data una serie di caratteristiche. In questa tesi verrà dimostrato come è possibile utilizzare l’apprendimento automatico per effettuare delle stime il più preciso possibile dei prezzi delle case. La tesi è divisa in 5 capitoli, nel primo capitolo verranno introdotti i concetti di base su cui si basa l’elaborato e alcune spiegazioni dei singoli modelli. Nel secondo capitolo, invece, viene trattato l’ambiente di lavoro utilizzato, il linguaggio e le relative librerie utilizzate. Il terzo capitolo contiene un’analisi esplorativa sul dataset utilizzato e vengono effettuate delle operazioni per preparare i dati agli algoritmi che verranno applicati in seguito. Nel capitolo 4 vengono creati i diversi modelli ed effettuate le previsioni sui prezzi mentre nel capitolo 5 vengono analizzati i risultati ottenuti e riportate le conclusioni.
Resumo:
Negli ultimi tempi la questione su come arginare il problema della diffusione delle fake news è diventata predominante sia nel dibattito pubblico che politico; in quanto miliardi di terabyte di foto, testi, video, informazioni si muovono quotidianamente attraverso le piattaforme social persuadendo in maniera più o meno efficace ciascun utente. Questo è tutto amplificato dal fatto che il mondo dell'informazione sia radicalmente cambiato col passare del tempo, in risposta alla crescita del fabbisogno informativo, dando maggiore importanza al numero di click piuttosto che all'attendibilità dell'informazione stessa. Nel contesto appena descritto i social media e la rete in generale hanno un ruolo molto importante in quanto tutti hanno diritto di parola al di là di meriti o conoscenze personali. Quello che conta davvero non è l’aderenza ai fatti, quanto la conformità con ciò a cui si crede e con la propria visione del mondo. L'uso e il significato del termine fake news si è evoluto nel tempo. Sebbene originariamente fosse utilizzato per fare riferimento a informazioni false e spesso clamorose diffuse sotto le spoglie di notizie, il termine si è evoluto ed è diventato sinonimo di diffusione di informazioni false che possono differenziarsi in base ai mezzi utilizzati per la falsificazione o in base all'intento per il quale sono state diffuse. L'obiettivo di questa tesi è quello di introdurre una rassegna delle metodologie atte a identificare e classifcare le fake news. Molti esperti hanno studiato modi per analizzare manualmente l'autenticità delle notizie; tuttavia, come valutarla in modo efficace è ancora una questione aperta. Nello specifico, la tesi fornisce anche un contributo per limitare la diffusione delle fake news sui social network, in quanto queste potrebbero influenzare o alterare l'opinione pubblica, contribuendo ad alimentare teorie complottistiche.
Resumo:
Le equazioni alle derivate parziali lineari (PDE’s) hanno un ruolo centrale in molte applicazioni di tipo scientifico, ingegneristico, medico, finanziario e sociale. È necessario, per questo motivo, avere metodi robusti che permettano di approssimare soluzioni di classi di PDE’s. Nell’ambito dei problemi lineari ellittici stazionari, una delle procedure comunemente utilizzate consiste nel discretizzare l’equazione differenziale mediante l’approssimazione delle derivate con differenze finite nel dominio considerato, e risolvere il sistema lineare algebrico risultante. Lo scopo dell’elaborato è studiare la dipendenza della convergenza del metodo dei Gradienti Coniugati dal parametro di discretizzazione per problemi ellittici autoaggiunti. Studieremo inoltre accelerazioni del metodo di tipo “Operator preconditioning”, che permettono di rendere l’algoritmo indipendente da tale parametro di discretizzazione in termini di numero di iterazioni.
Resumo:
Nella letteratura economica e di teoria dei giochi vi è un dibattito aperto sulla possibilità di emergenza di comportamenti anticompetitivi da parte di algoritmi di determinazione automatica dei prezzi di mercato. L'obiettivo di questa tesi è sviluppare un modello di reinforcement learning di tipo actor-critic con entropy regularization per impostare i prezzi in un gioco dinamico di competizione oligopolistica con prezzi continui. Il modello che propongo esibisce in modo coerente comportamenti cooperativi supportati da meccanismi di punizione che scoraggiano la deviazione dall'equilibrio raggiunto a convergenza. Il comportamento di questo modello durante l'apprendimento e a convergenza avvenuta aiuta inoltre a interpretare le azioni compiute da Q-learning tabellare e altri algoritmi di prezzo in condizioni simili. I risultati sono robusti alla variazione del numero di agenti in competizione e al tipo di deviazione dall'equilibrio ottenuto a convergenza, punendo anche deviazioni a prezzi più alti.
Resumo:
La crescente disponibilità di scanner 3D ha reso più semplice l’acquisizione di modelli 3D dall’ambiente. A causa delle inevitabili imperfezioni ed errori che possono avvenire durante la fase di scansione, i modelli acquisiti possono risultare a volte inutilizzabili ed affetti da rumore. Le tecniche di denoising hanno come obiettivo quello di rimuovere dalla superficie della mesh 3D scannerizzata i disturbi provocati dal rumore, ristabilendo le caratteristiche originali della superficie senza introdurre false informazioni. Per risolvere questo problema, un approccio innovativo è quello di utilizzare il Geometric Deep Learning per addestrare una Rete Neurale in maniera da renderla in grado di eseguire efficacemente il denoising di mesh. L’obiettivo di questa tesi è descrivere il Geometric Deep Learning nell’ambito del problema sotto esame.
Resumo:
Negli ultimi anni si è visto un forte segnale di cambiamento culturale indirizzato verso la sostenibilità affermando sempre più efficacemente i concetti di riciclaggio, riduzione e riutilizzo. Finora il design dei prodotti si è concentrato su aspetti che sfavorivano tale approccio e piuttosto si ponevano come specifica quella di definire a priori la vita del prodotto. Infatti, si sono sempre più sviluppate tecniche di accoppiamento delle parti che una volta accoppiate non consentivano più il disassemblaggio di queste. L’obiettivo di tale elaborato è stato quello di definire, nella famiglia di metodologie chiamata Design for X, un criterio che possa valutare e guidare la progettazione in ottica più mirata verso la riparabilità del prodotto “Design for Repair”. Aumentare la riparabilità del prodotto vuol dire poter aumentare la sua longevità, così da non avere la necessità di sostituirlo con un componente nuovo causando un impatto ambientale doppio, ossia la mancata necessità sia di sfruttare risorse per la realizzazione del sostituto sia di non dover occuparsi del processo di smaltimento del prodotto sostituito.
Resumo:
Gli Insider Threat sono una problematica complessa e rappresentano una delle problematiche più costose per le organizzazioni: questi ultimi possono, potenzialmente, realizzare grandi guadagni dalle informazioni sottratte danneggiando i clienti e provocando danni irreparabili all’organizzazione. Screening effettuati prima dell’assunzione e la costruzione di un relazione di fiducia basata sulla collaborazione rimangono fondamentali ma, spesso, non sono sufficienti ed è bene integrare il processo di difesa da insider threat all’interno delle business operation. Date queste precondizioni, l’obiettivo di questa tesi è stato quello di cercare un approccio sistematico per affrontare il problema dell’Insider Threat e di fornire nuovi strumenti per la sua detection altamente specializzati nel campo della cyber-security. Dato il campo applicativo, risulta fondamentale rendere questo processo totalmente trasparente al potenziale insider threat. Le più moderne tecniche di hiding, prese dai moderni malware, sono state implementate utilizzando eBPF rendendo possibile unire una quasi totale invisibilità unita alla stabilità garantita da questa tecnologia.
Resumo:
I raggi cosmici sono particelle energetiche provenienti dallo spazio esterno, alle quali è esposto qualunque corpo celeste dell’Universo. Possono essere leptoni, mesoni, barioni o loro stati aggregati, ad un energia che spazia diversi ordini di grandezza rendendo così la loro natura e la loro origine complessa da studiare. Risulta interessante la massima energia che essi possono avere, ma non risulta semplice studiare come riescono a raggiungerla. Una classe di raggi cosmici sui quali le informazioni sono ancora scarse sono gli ultra high energy cosmic rays (UHECRs), ovvero i raggi cosmici con un’energia superiore a 1e18 eV. Oltre ad essere molto raro rilevarli, non si `e nemmeno a conoscenza da cosa possano essere originati. In questo testo verrà spiegato come un raggio cosmico può accrescere la sua energia e verrà stimato se tre potenziali sorgenti possano o meno generare raggi cosmici ad altissima energia. Si osserva che i tre candidati, ovvero i filamenti cosmici, il ponte intracluster tra Abell 0399 e Abell 0401 e la radiogalassia gigante Alcioneo, non soddisfano le caratteristiche per essere la fonte di UHECRs ad altissima energia, potendo al più raggiungere energie di 3.5e19 eV, a patto che i raggi cosmici siano composti da nuclei di ferro.
Resumo:
Le perovskiti ibride ad alogenuri costituiscono una classe di materiali con proprietà elettroniche e bassi costi di fabbricazione tali da renderle ottime candidate per applicazioni quali la produzione di celle solari, detector, LED e laser. L’impiego pratico delle perovskiti tuttavia è limitato: i dispositivi basati su questi materiali sono instabili a causa della spiccata reattività con l’ambiente esterno, come umidità e ossigeno. Nelle perovskiti inoltre la conduzione non è solo elettronica, ma anche ionica, caratteristica che contribuisce alla rapida degradazione dei materiali. In questa tesi si vuole studiare il contributo del trasporto ionico ed elettronico alla corrente nella perovskite MAPbBr3 (tribromuro di metilammonio piombo) e la reattività di tale materiale con l’ambiente. A tal proposito si usa la tecnica Intensity Modulated Photocurrent Spectroscopy (IMPS), che consiste nel misurare la fotocorrente prodotta da un dispositivo optoelettronico in funzione della frequenza di modulazione di una sorgente luminosa, quale LED o laser. Si ripetono le misure IMPS in aria, vuoto e argon, per studiare l’impatto dell’atmosfera sulla risposta del campione. Con un apposito software si esegue il fit dei dati sperimentali e si estrapolano i tempi caratteristici dei portatori di carica: si ottengono valori dell’ordine del μs per elettroni e lacune, del s per gli ioni mobili. Si confronta quindi il comportamento del campione nelle varie atmosfere. Si evince come in aria sia presente un maggior numero di specie ioniche che migrano nel materiale rispetto ad atmosfere controllate come il vuoto e l’argon. Tali specie sono associate a ioni mobili che si formano in seguito all’interazione del materiale con molecole di ossigeno e acqua presenti nell’ambiente.
Resumo:
Circa 2500 anni fa, a Magnesia, l’uomo scopriva la magnetite, un minerale del ferro che ha un contenuto di metallo particolarmente alto. Fu così che l’umanità venne a contatto per la prima volta, più o meno consapevolmente, con gli effetti dei campi magnetici. Già il filosofo greco Talete di Mileto nel VI secolo a.C. descrisse gli effetti di tali pietre, ma l’umanità non smise di esserne affascinata. Un esempio astronomicamente noto di campo magnetico su ampia scala è quello terrestre: il nostro pianeta si può pensare come un grosso magnete con un campo di BE ≈ 0.3...0.5G, che tra le altre cose ci protegge dalle particelle ad altissima energia intrappolandole nelle cosiddette fasce di Van Allen. Vi sono poi campi magnetici molto più intensi, a partire da quelli generati in altri pianeti, come Giove, o di stelle e altri corpi celesti particolarmente densi, che possono raggiungere i 10^15G. Ma i campi magnetici sono largamente diffusi anche in tutto lo spazio interstellare e intergalattico, dove hanno valori molto inferiori, che sfiorano i pochi μG. Come si può intuire, un così ampio spettro di valori si traduce in un’altrettanto ricca gamma di metodi di rilevazione. In particolare, in questo elaborato, ci concentreremo soprattutto sui metodi di studio dei campi magnetici meno intensi, la cui conoscenza si basa sulle proprietà osservabili della radiazione di sincrotrone, principalmente indi- viduabili dai dati radio. Dedichiamo quindi un breve capitolo alla derivazione dello spettro della radiazione suddetta (Capitolo 2), preceduto da un accenno alle proprietà energetiche dei plasmi magnetizzati (Capitolo 1). Ci occupiamo infine per l’intero Capitolo 3 di alcuni tra i più diffusi metodi diagnostici, preferendo, come già anticipa- to quelli che analizzano gli spettri prodotti da elettroni relativistici in moto in campi magnetici, ma attraversando comunque gli effetti dei plasmi magnetizzati sulla propagazione della luce e sulla separazione delle righe spettrali.