990 resultados para TDP, Travelling Deliveryman Problem, Algoritmi di ottimizzazione


Relevância:

30.00% 30.00%

Publicador:

Resumo:

I sistemi sanitari sono messi sotto stress da fattori diversi che possono essere sintetizzati schematizzando il problema in pressioni sistemiche e pressioni pandemiche leggendole secondo due vettori paralleli: fattori modificabili e fattori non modificabili. I fattori non modificabili sono legati alla condizione socio-demografica di una popolazione (reddito pro-capite, livello di istruzione) e alle caratteristiche individuali dei pazienti che accedono ai servizi (condizioni di moltimorbidità, fragilità, età, sesso) mentre i fattori modificabili sono legati al modello organizzativo del servizio regionale e Aziendale. I fattori modificabili sono quelli che leggendo i fattori non modificabili possono adattarsi al contesto specifico e con gradi di flessibilità variabile rispondere alle domande emergenti. Il tradizionale approccio ospedaliero, ancora in gran parte basato su modelli organizzativi funzionalmente e strutturalmente chiusi, costruiti attorno alle singole discipline, non si è rivelato in grado di rispondere adeguatamente da solo a questi bisogni di salute complessi che necessitano di una presa in carico multidisciplinare e coordinata tra diversi setting assistenziali. La pandemia che ha portato in Italia ad avere più di 8 milioni di contagiati ha esacerbato problemi storici dei sistemi sanitari. Le Regioni e le Aziende hanno fronteggiato un doppio binario di attività vedendo ridursi l’erogazione di servizi per i pazienti non Covid per far fronte all’incremento di ricoveri di pazienti Covid. Il Policlinico S. Orsola ha in questa congiuntura storica sviluppato un progetto di miglioramento del percorso del paziente urgente coinvolgendo i professionisti e dando loro strumenti operativi di analisi del problema e metodi per identificare risposte efficaci. Riprendendo infine la distinzione tra pressioni modificabili e non modificabili il lavoro mostra che dall’analisi delle cause profonde dei nodi critici del percorso del paziente si possono identificare soluzioni che impattino sugli aspetti organizzativi (modificabili) personalizzando l’approccio per il singolo paziente (non modificabile) in un’ottica patient centred.

Relevância:

30.00% 30.00%

Publicador:

Resumo:

Per comprende più a fondo il problema che le aziende affrontare per formare le persone in grado di gestire processi di innovazione, in particolare di Open Innovation (OI), è stato realizzato nel 2021 uno studio di caso multiplo di un percorso di educazione non formale all’OI realizzato dalla società consortile ART-ER e rivolto ai dottorandi degli atenei emiliano-romagnoli. Nella seconda fase di tale percorso formativo, per rispondere alle sfide di OI lanciate dalle aziende, sono stati costituiti 4 tavoli di lavoro. A ciascun tavolo di lavoro hanno preso parte 3/4 dottorandi, due referenti aziendali, un consulente e un operatore di ART-ER. Il campione complessivo era costituito da 14 dottorandi; 8 referenti aziendali di quattro aziende; 4 membri di una società di consulenza e 4 operatori della società consortile ART-ER. Il seguente interrogativo di ricerca ha guidato l’indagine: l’interazione tra i soggetti coinvolti in ciascun tavolo di lavoro – considerato un singolo caso - si configura come una Comunità di Pratica in grado di favorire lo sviluppo di apprendimenti individuali funzionali a gestire i processi di OI attivati nelle imprese? I dati sono stati raccolti attraverso una ricerca documentale a tavolino, focus group, interviste semistrutturate e un questionario semistrutturato online. L’analisi dei dati è stata effettuata mediante un’analisi qualitativa del contenuto in più fasi con l’ausilio del software MAXQDA. I risultati dimostrano che in tre casi su quattro, i tavoli di lavoro si sono configurati come una Comunità di Pratica. In questi tre tavoli inoltre è emerso lo sviluppo di alcune aree di competenza funzionali alla gestione dei processi di OI. Nella conclusione sono state presentate alcune proposte per la riprogettazione delle future edizioni del percorso formativo.

Relevância:

30.00% 30.00%

Publicador:

Resumo:

The Three-Dimensional Single-Bin-Size Bin Packing Problem is one of the most studied problem in the Cutting & Packing category. From a strictly mathematical point of view, it consists of packing a finite set of strongly heterogeneous “small” boxes, called items, into a finite set of identical “large” rectangles, called bins, minimizing the unused volume and requiring that the items are packed without overlapping. The great interest is mainly due to the number of real-world applications in which it arises, such as pallet and container loading, cutting objects out of a piece of material and packaging design. Depending on these real-world applications, more objective functions and more practical constraints could be needed. After a brief discussion about the real-world applications of the problem and a exhaustive literature review, the design of a two-stage algorithm to solve the aforementioned problem is presented. The algorithm must be able to provide the spatial coordinates of the placed boxes vertices and also the optimal boxes input sequence, while guaranteeing geometric, stability, fragility constraints and a reduced computational time. Due to NP-hard complexity of this type of combinatorial problems, a fusion of metaheuristic and machine learning techniques is adopted. In particular, a hybrid genetic algorithm coupled with a feedforward neural network is used. In the first stage, a rich dataset is created starting from a set of real input instances provided by an industrial company and the feedforward neural network is trained on it. After its training, given a new input instance, the hybrid genetic algorithm is able to run using the neural network output as input parameter vector, providing as output the optimal solution. The effectiveness of the proposed works is confirmed via several experimental tests.

Relevância:

30.00% 30.00%

Publicador:

Resumo:

La presente ricerca ha avuto come obbietivo studiare come stia avvenendo l'adattamento dei tradizionali laboratori fotochimici di film alle tecniche digitali attraverso l'analisi delle politiche di preservazione, del restauro, dei costi relativi all’acquisto di nuove apparecchiature e della migrazione ai nuovi media presso il British Film Institute (BFI), lo Svenska Filminstitutet (SFI), l’Eye Filmmuseum, L'Immagine Ritrovata e ANIM - Cinemateca Portuguesa. A questo scopo è stato utilizzato il metodo dello studio di caso, in cui sono state effettuate interviste con gestori e tecnici delle istituzioni citate al fine di rispondere al quesito della presente ricerca: quali sono l’impatto e le implicazioni di questo adattamento? Quali sono i risultati raggiunti con le nuove attrezzature e metodi di restauro e preservazione? Per arrivare a rispondere a queste domande lo studio è stato diviso in due sezioni. Nella prima parte, sono riportate le interviste svolte presso SFI, BFI, Eye e L'Immagine Ritrovata, realizzate al fine di ottenere dati che permettessero di formulare un'intervista più completa e approfondita. Successivamente, questa intervista più dettagliata è stata condotta con una sola istituzione, la Cinemateca Portuguesa. Pertanto, nella seconda parte dello studio di caso, sono state realizzate interviste a tecnici e dirigenti di ANIM - Cinemateca Portuguesa e dei suoi laboratori partner. L'analisi dei risultati comprende tutte le informazioni provenienti dalle cinque istituzioni intervistate. È stato notato che l'adattamento al digitale ha effettivamente apportato miglioramenti nella preservazione e nel recupero del materiale fotochimico, ma ciò ha anche fatto sorgere alcuni dilemmi nei laboratori. C'è apprensione per la scarsità di materiale della filiera fotochimica e per una sua ipotetica fine nel prossimo futuro, poiché non ci sono ancora sufficienti conoscenze sulla filiera digitale e sul comportamento di questi media con il passare del tempo. Gli intervistati hanno altresì dimostrato positività riguardo alle tecnologie digitali.

Relevância:

30.00% 30.00%

Publicador:

Resumo:

L’energia da onda potrebbe assumere un ruolo fondamentale per la transizione energetica durante i prossimi decenni, grazie alla sua continuità nel tempo molto superiore rispetto ad altre risorse rinnovabili e alla sua vasta distribuzione nello spazio. Tuttavia, l’energia da onda è ancora lontana dall’essere economicamente sostenibile, a causa di diverse problematiche tecnologiche e alle difficoltà finanziarie associate. In questa ricerca, si è innanzitutto affrontata una delle maggiori sfide tecniche, nello specifico la progettazione e modellazione di sistemi di ancoraggio per i dispositivi galleggianti, proponendo possibili soluzioni per la modellazione numerica di sistemi di ancoraggio complessi e per l’ottimizzazione dei dispositivi stessi. Successivamente sono state analizzate le possibili sinergie strategiche di installazioni per lo sfruttamento della energia da onda con altre risorse rinnovabili e la loro applicazione nel contesto di aree marine multiuso. In particolare, una metodologia per la valutazione della combinazione ottimale delle risorse rinnovabili è stata sviluppata e verificata in due diversi casi studio: un’isola e una piattaforma offshore. Si è così potuto evidenziare l’importante contributo della risorsa ondosa per la continuità energetica e per la riduzione della necessità di accumulo. Inoltre, è stato concepito un metodo di supporto decisionale multicriteriale per la valutazione delle opzioni di riuso delle piattaforme offshore alla fine della loro vita operativa, come alternativa al decommissionamento, nell’ottica di una gestione sostenibile e della ottimizzazione dell’uso dello spazio marino. Sulla base dei criteri selezionati, l’inclusione di attività innovative come la produzione di energia da onda si è dimostrata essere rilevante per rendere vantaggioso il riuso rispetto al decommissionamento. Numerosi studi recenti hanno infatti sottolineato che, nell’ambito della “crescita blu”, i mercati come l’oil&gas, le attività offshore e le isole stimoleranno lo sviluppo di tecnologie innovative come lo sfruttamento dell’energia da onda, promuovendo la sperimentazione e fornendo un importante contributo all’avanzamento tecnico e alla commercializzazione.

Relevância:

30.00% 30.00%

Publicador:

Resumo:

This PhD thesis sets its goal in the application of crystal engineering strategies to the design, formulation, synthesis, and characterization of innovative materials obtained by combining well established biologically active molecules and/or GRAS (generally recognized as safe) compounds with co-formers able to modulate specific properties of the molecule of interest. The solid-state association, via non-covalent interactions, of an active ingredient with another molecular component, a metal salt or a complex, may alter in a useful way the physicochemical properties of the active ingredient and/or may allow to explore new ways to enhance, in a synergistic way, the overall biological performance. More specifically this thesis will address the threat posed by the increasing antimicrobial resistance (AMR) developed by microorganisms, which call for novel therapeutic strategies. Crystal engineering provides new tools to approach this crisis in a greener and cost-effective way. This PhD work has been developed along two main research lines aiming to contribute to the search for innovative solutions to the AMR problem. Design, preparation and characterization of novel metal-based antimicrobials, whereby organic molecules with known antimicrobial properties are combined with metal atoms also known to exert antimicrobial action. Design, preparation and characterization of co-crystals obtained by combining antibacterial APIs (active pharmaceutical ingredients) with natural antimicrobials.

Relevância:

30.00% 30.00%

Publicador:

Resumo:

Questa tesi è un contributo al dibattito meta-terminologico sull'uso scientifico del termine "monoteismo" in relazione alla religione dell'Israele antico. L'attenzione è rivolta principalmente a un tema specifico: l'esplorazione della nozione teistica di "esistenza" divina (implicita nell'uso di "monoteismo" come lente di osservazione) e il problema della sua applicazione alle concettualizzazioni della divinità che emergono nella Bibbia ebraica. In primo luogo, il "monoteismo" come termine e concetto viene ricondotto alle sue origini storiche nell'ambiente intellettuale del platonismo di Cambridge nell'Inghilterra del XVII secolo. Poi, si affronta il dibattito contemporaneo sull'uso del termine "monoteismo" in relazione alla religione dell'Israele antico e si evidenzia il ruolo dell'"esistenza" teistica come lente distorcente nella lettura dei testi biblici. La maggior parte della tesi sostiene questo assunto con una lettura esegetica dettagliata di tre passi biblici scelti come casi di studio: Sal 82; 1Re 18,20-40* e Zc 14,9. Queste analisi mostrano come la nozione teistica di un'esistenza divina astratta non sia in grado di spiegare la rappresentazione del divino che emerge da questi testi. Allo stesso tempo, il potere divino come categoria euristica viene proposto come un'alternativa più adatta a spiegare queste concettualizzazioni della divinità. L'ultima sezione elabora ulteriormente questi risultati. Qui la regalità di YHWH, come immagine metaforica del suo potere, viene utilizzata per descrivere i cambiamenti nella concettualizzazione di questa divinità. L'argomentazione finale è che in nessuna parte del materiale biblico affrontato in questa tesi si trova una nozione simile a quella di esistenza divina astratta. Poiché tale nozione è implicita nell'uso del termine "monoteismo", questi risultati richiedono una considerazione ancora più attenta del suo uso nel dibattito scientifico.

Relevância:

30.00% 30.00%

Publicador:

Resumo:

Nonostante l'utilizzo di strumenti informatici nella pratica didattica della matematica sia ormai ampiamente diffuso, l'insegnamento dei principi matematici dell'informatica è preso meno in considerazione anche a causa dei pochi punti di contatto nelle "Indicazioni Nazionali" tra le due materie, matematica e informatica, che sono invece intimamente correlate. Questa tesi descrive una attività didattica incentrata sul concetto di calcolabilità e computabilità e basata sul noto formalismo delle Macchine di Turing. É nostra opinione che coinvolgere gli studenti in tali tipologie di attività possa stimolare oltre all'apprendimento di competenze disciplinari, anche lo sviluppo di importanti competenze trasversali, in primis, il problem solving. L’attività proposta nella tesi è stata realizzata in una classe terza di un istituto tecnico economico dove, a seguito di una spiegazione dell’argomento, sono stati svolti due esercizi di gruppo, utilizzando il software \emph{Turing Machine Visualization}, che permette agli studenti e al docente di avere un supporto visuale al dialogo. Al termine dell’attività didattica è stato somministrato agli studenti un questionario che ha permesso di valutare le competenze acquisite da due prospettive distinte: soggettiva e oggettiva. I risultati del questionario sono ampliamente analizzati e discussi nella tesi.

Relevância:

30.00% 30.00%

Publicador:

Resumo:

Our contemporary society still sees the fat body as a problematic issue. This refusal originated as a racist control practice and developed as an esthetical and medical problem, resulting in the stigmatization and discrimination of this marginalized social group. Drawing on a corpus of about 157,000 words, the present study aims to shed light on how journalistic language might play a role in reinforcing prejudices towards fat people and, consequently, their stigmatization. The corpus contains 305 articles on fatness and/or obesity that were taken from six Italian newspapers representing different political leanings. The analysis is based on three main research questions: which frames are used to represent fat people in Italian newspapers? Do women get a particular treatment when talked about in relation to fatness/obesity? Do the articles employ any stigmatizing discourse strategies? Results show particular emphasis on the medical aspects of fatness/obesity, in terms of consequences on fat people’s health due to their lifestyle choices, with little to no consideration of societal responsibility around weight stigma. There is also evidence of women being talked about more than men in connection with this topic, especially with regards to their duty to appear in a certain way and their responsibility as mothers. Furthermore, articles display a vast amount of stigmatizing discourses, that go from offensive referential and predicational strategies, to an explicit mockery of fat people. In conclusion, the journalistic discourses on fatness/obesity analyzed in the present study show problematic traits possibly affecting fat people’s quality of life and should be examined more extensively as to establish a generalizing pattern by taking a larger set of data into account.

Relevância:

30.00% 30.00%

Publicador:

Resumo:

La presente tesi si posiziona all’interno di un percorso di ricerca avviato riguardante lo studio delle coperture lignee di vari edifici storici. Gli obiettivi del lavoro consistono nel fornire un quadro generale sullo stato dell’arte della modellazione parametrica per la diagnosi di strutture lignee storiche, completare e approfondire lo studio delle capriate della Cattedrale di S.Pietro a Bologna ed effettuare un confronto sia in termini quantitativi che di velocità esecutiva con metodologia e risultati degli studi precedenti. Il metodo proposto,è stato perfezionato grazie ai feedback ottenuti in corso d’opera a seguito della sua applicazione a nuovi casi studio.L’intento principale è quello di consentire maggior automatizzazione e parametrizzazione del metodo per conferire alle procedure di modellazione un carattere generalizzato e rapidamente replicabile.Sono state ottimizzate le fasi di editing della nuvola di punti e di vettorializzazione delle sezioni degli elementi strutturali.Al fine di approfondire la conoscenza di queste strutture,si è acquisito il rilievo 3D completo del sottotetto dell’edificio con laser scanner.Il primo output consiste quindi in una nuvola di punti dalla quale sono state estrapolate le singole capriate;da queste è possibile estrarre le sezioni delle aste afferenti ai nodi,poi vettorializzate tramite software di modellazione parametrica:sono stati utilizzati algoritmi,programmati e testati nei precedenti studi,che generano 3 modelli per ogni capriata:il modello di rilievo, il modello proiettato e quello “ideale o teorico”.Comparando i modelli e la nuvola di punti di rilievo è possibile analizzare spostamenti e deformazioni delle capriate,ottenere informazioni sul loro comportamento puntale e trarre considerazioni sullo“stato di salute”globale del sottotetto.I dati raccolti permettono di acquisire una maggiore consapevolezza sulle capriate oggetto di indagine e potrebbero essere utilizzati per progettare eventuali interventi di recupero.

Relevância:

30.00% 30.00%

Publicador:

Resumo:

This thesis project studies the agent identity privacy problem in the scalar linear quadratic Gaussian (LQG) control system. For the agent identity privacy problem in the LQG control, privacy models and privacy measures have to be established first. It depends on a trajectory of correlated data rather than a single observation. I propose here privacy models and the corresponding privacy measures by taking into account the two characteristics. The agent identity is a binary hypothesis: Agent A or Agent B. An eavesdropper is assumed to make a hypothesis testing on the agent identity based on the intercepted environment state sequence. The privacy risk is measured by the Kullback-Leibler divergence between the probability distributions of state sequences under two hypotheses. By taking into account both the accumulative control reward and privacy risk, an optimization problem of the policy of Agent B is formulated. The optimal deterministic privacy-preserving LQG policy of Agent B is a linear mapping. A sufficient condition is given to guarantee that the optimal deterministic privacy-preserving policy is time-invariant in the asymptotic regime. An independent Gaussian random variable cannot improve the performance of Agent B. The numerical experiments justify the theoretic results and illustrate the reward-privacy trade-off. Based on the privacy model and the LQG control model, I have formulated the mathematical problems for the agent identity privacy problem in LQG. The formulated problems address the two design objectives: to maximize the control reward and to minimize the privacy risk. I have conducted theoretic analysis on the LQG control policy in the agent identity privacy problem and the trade-off between the control reward and the privacy risk.Finally, the theoretic results are justified by numerical experiments. From the numerical results, I expected to have some interesting observations and insights, which are explained in the last chapter.

Relevância:

30.00% 30.00%

Publicador:

Resumo:

Il Machine Learning si sta rivelando una tecnologia dalle incredibili potenzialità nei settori più disparati. Le diverse tecniche e gli algoritmi che vi fanno capo abilitano analisi dei dati molto più efficaci rispetto al passato. Anche l’industria assicurativa sta sperimentando l’adozione di soluzioni di Machine Learning e diverse sono le direzioni di innovamento che ne stanno conseguendo, dall’efficientamento dei processi interni all’offerta di prodotti rispondenti in maniera adattiva alle esigenze del cliente. Questo lavoro di tesi è stato realizzato durante un tirocinio presso Unisalute S.p.A., la prima assicurazione in ambito sanitario in Italia. La criticità intercettata è stata la sovrastima del capitale da destinare a riserva a fronte dell’impegno nei confronti dell’assicurato: questo capitale immobilizzato va a sottrarre risorse ad investimenti più proficui nel medio e lungo termine, per cui è di valore stimarlo appropriatamente. All'interno del settore IT di Unisalute, ho lavorato alla progettazione e implementazione di un modello di Machine Learning che riesca a prevedere se un sinistro appena preso in gestione sarà liquidato o meno. Dotare gli uffici impegnati nella determinazione del riservato di questa stima aggiuntiva basata sui dati, sarebbe di notevole supporto. La progettazione del modello di Machine Learning si è articolata in una Data Pipeline contenente le metodologie più efficienti con riferimento al preprocessamento e alla modellazione dei dati. L’implementazione ha visto Python come linguaggio di programmazione; il dataset, ottenuto a seguito di estrazioni e integrazioni a partire da diversi database Oracle, presenta una cardinalità di oltre 4 milioni di istanze caratterizzate da 32 variabili. A valle del tuning degli iperparamentri e dei vari addestramenti, si è raggiunta un’accuratezza dell’86% che, nel dominio di specie, è ritenuta più che soddisfacente e sono emersi contributi non noti alla liquidabilità dei sinistri.

Relevância:

30.00% 30.00%

Publicador:

Resumo:

Il problema inverso di Galois classico consiste nel chiedersi se, dato un gruppo finito G, esista una estensione di Galois del campo dei numeri razionali che abbia come gruppo di Galois il gruppo G. Una volta verificata l'esistenza di una tale estensione poi, si cercano polinomi a coefficienti razionali il cui gruppo di Galois sia G stesso. Noto dall'inizio del diciannovesimo secolo, il problema è tuttora in generale irrisolto, nonostante nel corso degli anni siano stati fatti notevoli progressi. In questa tesi il problema viene affrontato e risolto in alcuni casi particolari: viene mostrata la realizzazione dei gruppi ciclici, dei gruppi abeliani e dei gruppi simmetrici come gruppi di Galois sul campo dei razionali, e vengono dati alcuni esempi di polinomi con tali gruppi di Galois.

Relevância:

30.00% 30.00%

Publicador:

Resumo:

Per funzioni di matrice intendiamo generalizzazioni di funzioni scalari che permettono di valutare tali funzioni anche per matrici. Esistono numerosi esempi notevoli di funzioni di matrice: tra queste la funzione esponenziale, la radice quadrata e il segno. Quest'ultima è particolarmente utile per la risoluzione di particolari equazioni matriciali come ad esempio le equazioni di Sylvester e le equazioni di Riccati. In questo elaborato introdurremo il concetto di funzione di matrice per poi soffermarci proprio sulla funzione segno. Oltre che a fornire tutte le definizioni necessarie e analizzare le proprietà che ci aiuteranno a comprendere meglio questa funzione, ci interesseremo all'implementazione di algoritmi che possano calcolare o approssimare la funzione segno di matrice. Un primo metodo sfrutterà la decomposizione di Schur: supponendo di conoscere la decomposizione della matrice, e di trovarci in algebra esatta, questo metodo non fornirà un'approssimazione del segno della suddetta matrice ma l'esatto segno della stessa. Il secondo metodo che studieremo si può definire più come una famiglia di metodi. Vedremo infatti tre algoritmi diversi che però sfruttano tutti l'iterazione di Newton, opportunamente adattata al caso matriciale: il metodo di base, convergente globalmente, in cui applicheremo semplicemente questa iterazione, ed altri due che mireranno a risolvere problemi distinti del metodo di base, ovvero il numero di iterazioni necessarie per giungere alla convergenza (introducendo il concetto di riscaling) e l'alto costo computazionale (sacrificando però la convergenza globale). Grazie all'aiuto di Matlab analizzeremo più nello specifico l'efficienza dei vari algoritmi descritti, ed infine vedremo più nello specifico come utilizzare la funzione segno di matrice per risolvere le equazioni algebriche di Sylvester e di Riccati.

Relevância:

30.00% 30.00%

Publicador:

Resumo:

Nell’ambito della Stereo Vision, settore della Computer Vision, partendo da coppie di immagini RGB, si cerca di ricostruire la profondità della scena. La maggior parte degli algoritmi utilizzati per questo compito ipotizzano che tutte le superfici presenti nella scena siano lambertiane. Quando sono presenti superfici non lambertiane (riflettenti o trasparenti), gli algoritmi stereo esistenti sbagliano la predizione della profondità. Per risolvere questo problema, durante l’esperienza di tirocinio, si è realizzato un dataset contenente oggetti trasparenti e riflettenti che sono la base per l’allenamento della rete. Agli oggetti presenti nelle scene sono associate annotazioni 3D usate per allenare la rete. Invece, nel seguente lavoro di tesi, utilizzando l’algoritmo RAFT-Stereo [1], rete allo stato dell’arte per la stereo vision, si analizza come la rete modifica le sue prestazioni (predizione della disparità) se al suo interno viene inserito un modulo per la segmentazione semantica degli oggetti. Si introduce questo layer aggiuntivo perché, trovare la corrispondenza tra due punti appartenenti a superfici lambertiane, risulta essere molto complesso per una normale rete. Si vuole utilizzare l’informazione semantica per riconoscere questi tipi di superfici e così migliorarne la disparità. È stata scelta questa architettura neurale in quanto, durante l’esperienza di tirocinio riguardante la creazione del dataset Booster [2], è risultata la migliore su questo dataset. L’obiettivo ultimo di questo lavoro è vedere se il riconoscimento di superfici non lambertiane, da parte del modulo semantico, influenza la predizione della disparità migliorandola. Nell’ambito della stereo vision, gli elementi riflettenti e trasparenti risultano estremamente complessi da analizzare, ma restano tuttora oggetto di studio dati gli svariati settori di applicazione come la guida autonoma e la robotica.