1000 resultados para Materiali mancanti, pianificazione della produzione, gestione dei materiali, Supply Chain
Resumo:
I dati sono una risorsa di valore inestimabile per tutte le organizzazioni. Queste informazioni vanno da una parte gestite tramite i classici sistemi operazionali, dall’altra parte analizzate per ottenere approfondimenti che possano guidare le scelte di business. Uno degli strumenti fondamentali a supporto delle scelte di business è il data warehouse. Questo elaborato è il frutto di un percorso di tirocinio svolto con l'azienda Injenia S.r.l. Il focus del percorso era rivolto all'ottimizzazione di un data warehouse che l'azienda vende come modulo aggiuntivo di un software di nome Interacta. Questo data warehouse, Interacta Analytics, ha espresso nel tempo notevoli criticità architetturali e di performance. L’architettura attualmente usata per la creazione e la gestione dei dati all'interno di Interacta Analytics utilizza un approccio batch, pertanto, l’obiettivo cardine dello studio è quello di trovare soluzioni alternative batch che garantiscano un risparmio sia in termini economici che di tempo, esplorando anche la possibilità di una transizione ad un’architettura streaming. Gli strumenti da utilizzare in questa ricerca dovevano inoltre mantenersi in linea con le tecnologie utilizzate per Interacta, ossia i servizi della Google Cloud Platform. Dopo una breve dissertazione sul background teorico di questa area tematica, l'elaborato si concentra sul funzionamento del software principale e sulla struttura logica del modulo di analisi. Infine, si espone il lavoro sperimentale, innanzitutto proponendo un'analisi delle criticità principali del sistema as-is, dopodiché ipotizzando e valutando quattro ipotesi migliorative batch e due streaming. Queste, come viene espresso nelle conclusioni della ricerca, migliorano di molto le performance del sistema di analisi in termini di tempistiche di elaborazione, di costo totale e di semplicità dell'architettura, in particolare grazie all'utilizzo dei servizi serverless con container e FaaS della piattaforma cloud di Google.
Resumo:
Molti edifici realizzati negli anni ‘80-‘90 sono caratterizzati da impianti con caldaie autonome e nell’ambito degli interventi di riqualificazione energetica solo raramente vengono inserite delle pompe di calore a causa della temperatura di funzionamento dell’impianto, che spesso deve essere mantenuta elevata per i sistemi di emissione a radiatori. Tuttavia la riduzione dei carichi termici dovuti all'isolamento degli edifici consente di utilizzare i terminali esistenti facendoli lavorare a bassa temperatura, con temperature medie di 45-50°C. Obiettivo principale della tesi è quindi la valutazione della fattibilità e dei vantaggi energetici nell’ambito della sostituzione di un sistema di riscaldamento autonomo a gas con un sistema a pompa di calore. Viene preso in esame un edificio condominiale formato da 47 alloggi sito a San Lazzaro di Savena e in particolare verrà valutata la fattibilità di inserire un impianto centralizzato a pompa di calore per ogni corpo scala di cui è composto l’edificio, alimentando l’impianto con pannelli fotovoltaici installati in copertura. Per valutare i vantaggi energetici è stato utilizzato il software di simulazione dinamica Design Builder che consente di analizzare i fabbisogni energetici e la produzione di energia con step orario. Il modello dinamico permette anche di studiare le strategie d’involucro più opportune per diminuire il fabbisogno energetico e poter far lavorare la pompa di calore con i radiatori esistenti a bassa temperatura. I risultati attesi dal lavoro sono molteplici: in primo luogo verificare che la scelta dell’introduzione della pompa di calore consenta all'edificio di ridurre i consumi di energia primaria da fonti non rinnovabili, con lo scopo di portare l’edificio ad una richiesta di quasi zero energia (NZEB) in linea con le nuove normative europee e nazionali; in secondo luogo che l’utilizzo della simulazione oraria consenta di valutare il matching reale tra produzione e consumo di energia.
Resumo:
La filosofia del lean thinking ha dimostrato in numerose occasioni, dalla sua nascita ad oggi, di poter apportare reali e consistenti benefici all’interno degli ambienti aziendali rivoluzionando a volte non solo il modo di produrre delle aziende ma anche quello di pensare, generando un profondo cambiamento culturale. La filosofia lean nasce come esigenza di riadattamento del sistema produttivo in contrapposizione a quello della mass production per questo molti dei testi di riferimento storici sul lean thinking citano prassi e casi aziendali che toccano esclusivamente l’ambito della produzione, tuttavia tale ambito rappresenta solamente uno dei tanti che si possono osservare in ambito aziendale. Successivamente si è compreso come il lean thinking rappresenti in realtà un sistema, composto da: principi, tecniche, metodi e strumenti in grado di garantire il miglioramento dei processi. Si tratta di fatto di un framework adattabile alle diverse funzioni aziendali e che per massimizzare la propria efficacia deve essere assimilato dall’intera organizzazione e non solo dall’ambiente produttivo. Negli anni infatti l’aggettivo “lean” è stato accostato agli ambiti più vari: lean sales, lean accounting, lean services, lean managment, lean organization, lean enterprise, lean office e molti altri. Tuttavia raramente ci si imbatte nel termine “lean warehousing” e ancora più raramente ci si imbatte in casi di applicazioni di strumenti lean in ambito logistico o a testi di riferimento che trattino l’argomento. In un mercato sempre più̀ competitivo è fondamentale per qualsiasi azienda avere una logistica efficiente e flessibile che consenta di offrire un alto livello di servizio per il cliente. Il magazzino rappresenta il punto di arrivo e di partenza per ogni flusso logistico e data la rilevanza che ancora oggi la sua funzione detiene per le aziende risulta fondamentale per il successo dell’interno sistema implementare anche in questa divisione la filosofia lean.
Resumo:
Il salmone atlantico (Salmo salar), grazie alle proprie caratteristiche sensoriali e nutrizionali, è una specie ittica ad alto valore commerciale, oggetto di numerose ricerche volte a migliorare l’efficienza del suo allevamento e la qualità dei suoi prodotti trasformati. Ad oggi, l’affumicatura a freddo (< 30°C) è il processo più comunemente applicato per valorizzare il salmone ed estenderne la shelf-life (SL), ma l’esposizione all’ossigeno atmosferico durante suddetta operazione favorisce l’ossidazione dei lipidi e la perdita di valore nutrizionale. Lo scopo del presente lavoro di tesi è stato quello di valutare l’effetto di un processo innovativo di crio- affumicatura sulla SL di filetti di salmone atlantico. A tal fine, dei filetti sono stati affumicati a 5 e 22 °C attraverso un prototipo che sfrutta l'azoto liquido come fluido di raffreddamento e l’azoto gassoso come carrier dei fumi e sono stati confrontati con filetti affumicati a 22°C in aria (affumicatura a freddo convenzionale) per lo stesso tempo (3 ore). Una volta disidratati osmoticamente, affumicati e confezionati sottovuoto, i campioni sono stati sottoposti alle determinazioni di colore, texture, sale, contenuto lipidico, aw, umidità, pH, fenoli e indici di ossidazione lipidica durante 32 giorni di conservazione refrigerata. L’evoluzione della qualità microbiologica dei filetti è stata invece valutata fino a 45 giorni. Dai risultati è emerso che, a parità di durata del trattamento, l’utilizzo della crio-affumicatura in azoto ha permesso di ridurre l’entità della perossidazione lipidica e ottenere una SL microbiologica maggiore rispetto all’affumicatura a freddo in azoto, probabilmente in ragione del mantenimento della catena del freddo. Inoltre, a seguito dell’utilizzo di azoto come gas carrier al posto dell’aria, l’assorbimento dei fenoli è risultato minore, fatto che probabilmente ha determinato una minore inibizione della crescita microbica e, pertanto, una SL microbiologica più breve.
Resumo:
Questa tesi ha l’obbiettivo di studiare e seguire la creazione un modello matematico che possa risolvere un problema logistico di Hub Facility Location reale, per l’individuazione del posizionamento ottimale di uno o più depositi all’interno di una rete distributiva europea e per l’assegnazione dei rispettivi clienti. Si fa riferimento alla progettazione della rete logistica per rispondere alle necessità del cliente, relativamente ad una domanda multiprodotto. Questo problema è stato studiato a partire da un caso reale aziendale per la valutazione della convenienza nella sostituzione di quattro magazzini locali con uno/due hub logistici che possano servire tutte le aree. Il modello distributivo può anche essere adoperato per valutare l’effetto della variazione, dal punto di vista economico, del servizio di trasporto e di tariffario. La determinazione della posizione ottimale e del numero dei magazzini avviene tramite un modello matematico che considera al proprio interno sia costi fissi relativi alla gestione dei magazzini (quindi costo di stabilimento, personale e giacenza) e sia i costi relativi al trasporto e alla spedizione dei prodotti sulle diverse aree geografiche. In particolare, la formulazione matematica si fonda su un modello Programmazione Lineare Intera, risolto in tempi molto brevi attraverso un software di ottimizzazione, nonostante la grande mole di dati in input del problema. In particolare, si ha lo studio per l’integrazione di tariffari di trasporto diversi e delle economie di scala per dare consistenza ad un modello teorico. Inoltre, per ricercare la migliore soluzione di quelle ottenute sono poi emersi altri fattori oltre a quello economico, ad esempio il tempo di trasporto (transit-time) che è un fattore chiave per ottenere la soddisfazione e la fedeltà del cliente e attitudine dell’area geografica ad accogliere una piattaforma logistica, con un occhio sugli sviluppi futuri.
Resumo:
I vini non sono tutti uguali e gli aromi ne esaltano le principali differenze. I profumi o aromi dipendono da molteplici molecole odorose (volatili) presenti nel vino in concentrazioni variabili. Esse creano interazioni complesse tra loro e definiscono l’insieme delle sensazioni olfattive, il cosiddetto “bouquet”. Le principali molecole odorose responsabili dei profumi del vino hanno soglie di percezione che variano anche di molti ordini di grandezza, sulla base dei composti che ne sono responsabili e anche della percezione soggettiva dell’assaggiatore. Riuscire a riconoscere gli aromi che caratterizzano un vino non è una pratica semplice. Servono curiosità, studio, esercizio ed un’esperienza di degustazione adeguata in modo da poter individuare e memorizzare un ampio archivio di profumi e aromi del vino e soprattutto per capirne il loro significato enologico. Questa revisione critica si è concentrata sui composti volatili che contribuiscono all'aroma del vino ed ha fornito una panoramica dei recenti sviluppi nelle tecniche analitiche per l'analisi dei volatili, compresi i metodi usati per discriminare i composti che danno i maggiori contributi all'aroma complessivo. Dopo una revisione bibliografica sulle tipologie di aromi, i difetti e le sensazioni che influiscono sulla percezione del gusto sono stati presi in esame i metodi per l’analisi strumentale della componente volatile dei vini e la degustazione con particolare attenzione all’esame olfattivo. Infine, è stata esaminata la complessità della percezione aromatica che include effetti matrice, fisiologia dell'assaggiatore, interazioni sensoriali intermodali; si è concluso che tutti questi fattori possono influenzare la volatilità dei composti, la persistenza delle percezioni sensoriali e il sapore o l’aroma complessivi percepiti, l’intensità e la qualità.
Resumo:
I valori di identità e appartenenza degli ecosistemi territoriali ben si combinano con la sperimentazione e l’innovazione indotta dal design. Il punto di partenza è stata l’analisi della relazione tra design e territorio. Il rapporto tra design e territorio è stato inoltre analizzato in relazione alle modalità in cui le aziende multinazionali interpretano questa dicotomia. È stata scelta, quindi, Ikea come azienda. Una multinazionale che produce e commercializza elementi di arredo. Sono stati analizzati diversi casi studio inerenti a progetti legati al territorio; nei quali sono state raccontate storie e tradizioni di luoghi e quindi di persone. L’output dell’indagine è un Framework metodologico, che indirizza il progettista all’interno di linee progettuali atte a connettere con i territori locali. Al fine di verificare il modello è stato necessario passare in rassegna da nord a sud, alcune delle principali e tradizionali tecniche di lavorazione del nostro Paese, facendo un focus sulla Sicilia. Tra le varie tecniche di lavorazione tipiche della cultura siciliana, è stata scelto il pizzo o merletto. In seguito allo studio della tecnica è stato selezionato e riprogettato un prodotto della produzione di Ikea. Il prodotto in questione è il tavolo vassoio GLADOM della collezione Ikea, a cui sarà aggiunto un elemento quadrato in ricamo che avrà una duplice funzione: porta riviste e sacca per trasportare il vassoio. Ma il forte riferimento al territorio non si limita al semplice utilizzo della tecnica, bensì si sviluppa attraverso l’impiego di un innovativo materiale: l’Orange Fiber. Questo è un innovativo tessuto, ricavato dalla lavorazione dei sottoprodotti degli agrumi siciliani. Mentre, la personalizzazione di tali prodotti avverrebbe all’interno di spazi collocati negli Store Ikea, denominati Territorial Hub; ovvero dei laboratori della tradizione territoriale, nei quali diverse maestranze si sperimenteranno nel dare una nuova identità a prodotti già consolidati.
Resumo:
La Direttiva 2000/53/CE sui veicoli fuori uso (VFU) stabilisce, entro il 2015, l’obiettivo di reimpiegare e riciclare almeno l’85% in peso del VFU e di reimpiegare e recuperare almeno il 95% in peso del VFU. Sebbene la media europea superi entrambi i target, nel 2019 l’Italia ha raggiunto l’84.2% sia per reimpiego e riciclo che per reimpiego e recupero, non essendo utilizzato il recupero energetico. Obiettivo di questa tesi, realizzata in collaborazione con un impianto di frantumazione, è stato quello di studiare nuove metodologie di gestione dei VFU in modo da diminuire la produzione di car fluff, smaltito in discarica, e incrementare i tassi di riciclo. Nello specifico, è stato chiesto a due autodemolitori di selezionare un campione di 10 VFU da sottoporre a messa in sicurezza e demolizione secondo step precisi di promozione al riciclaggio, compresa la separazione di sedili e cruscotti. Una volta eseguiti i test di frantumazione su pacchi auto, sedili e cruscotti, sono state effettuate analisi merceologiche e chimico-fisiche su alcuni flussi in uscita e sono stati calcolati i tassi di reimpiego, riciclo e smaltimento. Per entrambi i campioni è stato raggiunto l’obiettivo di reimpiego e riciclo, superando di circa un punto percentuale i valori del 2019. Il fluff ottenuto dalla frantumazione dei sedili non rispetta i parametri per poter essere classificato come CSS-combustibile; uno sviluppo futuro potrebbe essere quello di diminuire la concentrazione di cloro, antimonio, nichel e rame, per potere permettere di recuperare tale frazione e aumentare i target di riciclo.
Resumo:
L’elaborato affronta l’ottimizzazione di una pressa a doppia ginocchiera a 5 punti impiegata nello stampaggio a iniezione. Il processo di ottimizzazione coinvolge la sintesi dimensionale dei membri del meccanismo e la pianificazione della traiettoria del suo organo cedente. L’obiettivo finale è di ottenere una geometria del meccanismo ed una legge oraria che minimizzino il picco di coppia richiesto all’attuatore, oltre a rispettare i vincoli fisici dell’applicazione (ingombri, velocità massima, forza massima, ecc.). La soluzione ottima viene raggiunta applicando in serie l’algoritmo genetico e l’algoritmo SQP (programmazione quadratica sequenziale) ad un modello dinamico rigido del meccanismo. I due algoritmi vengono scelti in quanto efficaci nel risolvere un problema di ottimizzazione vincolato. Per quanto riguarda la loro applicazione in serie, l’algoritmo genetico permette l’esplorazione dello spazio di progettazione e l’individuazione di una soluzione "buona", a partire da questa l’algoritmo SQP trova l’ottimo locale. L’intero processo di modellazione ed ottimizzazione è implementato tramite il software MATLAB. I risultati sono validati con un software di analisi dinamica (SolidWorks Motion) ed in parte in maniera sperimentale. Infine, la soluzione attuale viene confrontata con quelle ottenute. Il confronto è descritto nel dettaglio nella Sezione 6.5 ed in forma riassuntiva nella Sezione 6.5.5.
Resumo:
«La salute degli ecosistemi da cui dipendiamo, noi e tutte le altre specie, si sta aggravando più rapidamente che mai; stiamo compromettendo le stesse basi delle economie, della sussistenza, della sicurezza alimentare, della salute e della qualità della vita in tutto il mondo». Così il chimico R. Watson commentava un diffuso rapporto del 2019 delle Nazioni Unite sulla sconvolgente perdita di flora e fauna a livello globale. In questi anni sono stati infiniti gli appelli che citano l’astratto concetto delle «generazioni a venire», eppure, non tutte le aziende stanno agendo come dovrebbero. I rifiuti prodotti sono ancora molti, soprattutto quelli plastici da packaging. Alcune ideologie snelle, come il Lean Thinking, esistono da decenni e sono strettamente legate a quella che oggi chiamiamo Green Manufacturing. Entrambe propongono diversi strumenti per far fronte alla produzione di massa e agli sprechi: questi verranno trattati nella prima parte, e successivamente saranno impiegati, con il supporto del software «openLCA», per verificare il percorso dell’azienda protagonista dell’analisi, ovvero Lush Cosmetics. L’attenzione all’impatto ambientale che i propri prodotti possono provocare lungo l’intero ciclo di vita ha modellato la gestione interna di ciascun processo e, spontaneamente, si riflette sugli attori dell’intera supply chain: così, il comportamento di uno può ugualmente modificare, in questo caso positivamente, il lavoro di molti. Il seguente elaborato pone l’attenzione sulle problematiche migliorabili, proponendo diverse soluzioni alternative rispetto alla gestione attuale, seppur migliore di altre realtà. Infine, si vuole stimolare il consumatore verso una maggior consapevolezza delle conseguenze delle sue azioni, in fase di acquisto prima ed al momento dello smaltimento poi. I provvedimenti normativi, nazionali ed europei, possono funzionare solo se sostenuti da un consumo responsabile e dalla diffusione di una chiara ed efficace educazione ambientale.
Resumo:
La pandemia COVID-19 ha causato una crisi della supply chain globale, con ritardi e rallentamenti nella produzione, nella distribuzione di beni essenziali e componistica elettronica dovuti alla chiusura delle fabbriche. In un momento in cui le catene di approvvigionamento globali avevano appena iniziato a “riprendersi” dopo due anni di pandemia, un altro evento geopolitico mondiale dalle grandi conseguenze ha fatto la sua comparsa, la Guerra in Ucraina. L’invasione ha causato un ulteriore aumento dei prezzi delle materie prime in quanto l'Ucraina è un importante produttore di cereali e un fornitore di materie prime come il gas naturale. In questo contesto, nasce questo elaborato che si pone l’obiettivo di dare al Gruppo Montenegro tutti gli strumenti necessari per compiere una scelta di “make or buy” in risposta ad una previsione della domanda crescente. Per raggiungere questo scopo si sono analizzate parallelamente sia la scelta “buy” sia la scelta “make”. In conclusione, alla tesi è stata proposta una soluzione che prevede tre diversi scenari, che in base all’evoluzione del mercato e dei trend globali potrà essere strategicamente d’aiuto all’azienda sulle decisioni da implementare nei prossimi anni.
Resumo:
La tesi di Dottorato, condotta in accordo di colutela tra l'Università di Roma Tor Vergata e l'UNIL di Losanna, ha affrontato l'analisi di un gruppo di undici disegni custodia presso la National Gallery of Scotland di Edimburgo, copie di alcuni dei più significativi mosaici medioevali delle chiese di Roma, ricostruendone la genesi, quindi le vicende legate alla committenza, e il percorso collezionistico. I disegni scozzesi, oggetto di un importante articolo di Julian Gardner pubblicato sul Burlington Magatine nel 1973, furono commissionati intorno agli anni Settanta del XVII secolo dall'antiquario romano Giovanni Giustino Ciampini (1633-1698) in connessione alla stesura della sua opera di erudizione più avvertita e famosa: i Vetera Mommenta in' quibus praecipue Musiva Opera, sacrarum, profanan,mque, Aedìum structura, ac nonnulli antiqui ritus dissertationibus iconìbusque illustrantur. La composizione dei Vetera Mommenta - un'opera riccamente illustrata che nasce per rispondere alle esigenze della ideologia della Chiesa di Roma in un momento di rinnovata crisi del sistema - impone a Ciampini di porsi da un lato nella prospettiva della più alta tradizione antiquaria cinque e seicentesca, di cui recupera i metodi di lettura e di analisi applicati allo studio delle monete e dei monumenti antichi interpretati quali prove per la ricostruzione storica, e dall'altra, come è emerso dalle mie ricerche, lo pone immediatamente in contatto con gli avamposti del più moderno metodo di indagine storica e filologica applicato alle fonti e ai documenti della storia ecclesiastica, inaugurato dall'ambiente bollandista e inaurino. I monumenti paleocristiani e medioevali assumono in quest'ottica lo status di 'fatti incontestabili', le fonti primarie attraverso le quali Ciampini ricuce le tappe salienti della storia della Chiesa, da Costantino fino al XV secolo. Nel 1700 le copie di Edimburgo arrivano nelle mani del mercante e connoisseur milanese il padre oratoriano Sebastiano Resta (1635-1714), di stanza a Roma presso la Chiesa Nuova della Vallicella dal 1660, che decide di rilegarle tutte insieme in un volume da donare al suo maggiore acquirente e patrono, il vescovo di Arezzo Giovanni Matteo Marchetti. Come spiega Resta in alcune sue lettere, il presente avrebbe dovuto costituire insieme una curiosità ed offrire un confronto: infatti «le copie delli mosaici di Roma che erano di Monsignor Ciampini» - afferma Resta - avrebbero mostrato al Marchetti «le maniere di que' tempi gottici, barbari e divoti de cristiani e [fatto] spiccare i secoli seguenti». Questa indagine infatti ha fatto riemergere aspetti della precoce attenzione di Sebastiano Resta per l'arte dei "secoli bassi", mai debitamente affrontata dagli studi. E' infatti sulla scorta di una profonda conoscenza dei testi della letteratura artistica, e in connessione alla esplosione vivacissima della controversia Malvasia/Baldinucci sul primato del risorgere delle arti in Toscana, che Sebastiano a partire dagli anni Ottanta del Seicento comincia a meditare sul Medioevo artistico con il fine di spiegare l'evoluzione del linguaggio tecnico e formale che ha condotto alla perfezione dell'atte moderna. In questa prospettiva ι disegni del XIV e XV secolo che egli riuscì ad intercettare sul mercato valgono quali testimonianze delle maniere degli artefici più antichi e sono imbastiti nei molteplici album che Resta compone nel rispetto della successione cronologica dei presunti autori, e ordinati in base alle scuole pittoriche di pertinenza. La tesi permette perciò di descrivere nelle loro diverse specificità: da un lato il modo dei conoscitori come Resta, interessati nell'opera al dato stilistico, con immediate e sensibili ricadute sul mercato, e disposti anche con passione a ricercare i documenti relativi all'opera in quanto pressati dall'urgenza di collocarla nella sequenza cronologica dello sviluppo del linguaggio formale e tecnico; dall'altro gli antiquari come Ciampini e come Bianchini, per i quali le opere del passato valgono come prove irrefutabili della ricostruzione storica, e divengono quindi esse stesse, anche nel loro statuto di copia, documento della stona. Sono due approcci che si manifestano nel Seicento, e talvolta in una medesima persona, come mostra il caso anche per questo cruciale di Giovati Pietro Bellori, ma che hanno radici cinquecentesche, di cui i protagonisti di queste vicende sono ben consapevoli: e se dietro Resta c'è palesemente Vasari, dietro Ciampini e soprattutto Bianchini c'è la più alta tradizione antiquaria del XVI secolo, da Antonio Augustin a Fulvio Orsini.
Resumo:
Le neuroscienze occupano oggi un ruolo essenziale nel dibattito scientifico e filosofico, nonché in quello delle scienze umane. Esse costituiscono la sfida più seria al sapere fin qui elaborato intorno ai fondamenti dell'esperienza di coscienza, poiché si propongono come capaci di rispondere alla domanda di origine e funzionamento della coscienza. Le neuroscienze cognitive stanno, oggi, rivoluzionando la nostra concezione della mente e delle sue funzioni. Ci forniscono nuovi dati sulla natura delle sensazioni, della memoria, della percezione e dei processi di astrazione. L'epistemologia è rientrata così pienamente nell'ambito di una disciplina sperimentale, come diversi filosofi (da Hume a Quine) hanno auspicato. È, alla fine, evoluta nell'esperienza odierna della cosiddetta "epistemologia sperimentale", luogo che coniuga il rigore sperimentale della scienza con la profondità e la sofisticazione argomentativa della tradizione filosofica. Come arriviamo a conoscere? Quali vincoli poniamo a quello che deve essere conosciuto? Perché seguiamo certe vie invece di altre? Come arriviamo a formulare giudizi e a prendere decisioni? Che valore ha la conoscenza già acquisita nell'elaborazione di nuove esperienze? In particolare, che peso hanno le aspettative e i ricordi in questo processo? Qual è il rapporto fra esperienza, conoscenza e memoria? Come si fissano e come si richiamano i ricordi? Qual è il rapporto fra coscienza e memoria? Sono alcune delle domande che l'autore si pone in questa ottica e alle quali cerca di rispondere, a partire dall'analisi e valutazione del dialogo-dibattito fra J.-P. Changeux e P. Ricoeur, per apprenderne il linguaggio, capire i problemi sollevati, adattarsi alla complessità della materia. Nel contesto della filosofia della mente, la "lettura" della discussione ripercorre i relativi percorsi attraverso l'analisi delle loro opere, da un lato quelle dello scienziato (sulla struttura e dinamica del cervello, la teoria dell'epigenesi e stabilizzazione selettiva, le speculazioni sull'uomo neuronale e i rilievi antropologici, le teorie della conoscenza e della coscienza, oltre che sulla conoscenza matematica, gli argomenti di estetica ed etica); dall'altro lato quelle del filosofo (dal Cogito riflessivo alla scoperta dell'ermeneutica, dalle eterogenee riflessioni sul Conflitto delle interpretazioni alla grande teoria sulla creatività del linguaggio, le conclusioni teoriche sull'ermeneutica del sé e l'ontologia dell'agire). Il punto di arrivo è la determinazione delle relative posizioni: quella di Changeux tra i neuroscienziati che si occupano di questioni filosofiche, epistemologiche ed etiche, e quella di Ricoeur tra i filosofi che si occupano di neuroscienze. La conclusione della tesi si svolge in un approfondimento teoretico che dalla nozione di "traccia" porta all'esperienza della "memoria", al fine di intrecciare i fili della discussione ripercorsa ed offrire una sponda non forzata al dibattito più ampio. Il tema della memoria è privilegiato per ragioni intrinseche, poiché si tratta di uno dei temi precipui delle neuroscienze, della filosofia della mente e della fenomenologia. A un primo livello viene instaurato su questo punto un confronto epistemologico tra la proposta della neurofenomenologia (Varala, ad esempio) e la posizione tenuta in particolare da Ricoeur rispetto ad essa e al suo "progetto unificante", posizione defilata e, per certi aspetti, criticamente dubbiosa sul fatto che si possa davvero giungere a un "terzo discorso". Si riferisce poi del largo interesse e dei risultati più significativi della riflessione fenomenologica antica e moderna sulla memoria. A un secondo livello vengono illustrati i programmi di ricerca recenti della neurofenomenologia su questo argomento all'interno delle scienze cognitive e si dà conto dei risultati più significativi. Ad un terzo e conclusivo livello, si approfondisce il significato teologico della memoria. Les neurosciences ont aujourd'hui un rôle essentiel dans le débat scientifique et philosophique, ainsi que dans celui des sciences humaines. Elles constituent le défi le plus sérieux aux savoir qu'on a construit jusqu'ici sur les fondements de l'expérience de conscience, attendu qu'elles-mêmes se considèrent capables de répondre à la demande sur l'origine e le fonctionnement de la conscience. Les neurosciences cognitives sont aujourd'hui en train de révolutionner notre conception de l'esprit et des ses fonctions. Elles nous offrent des nouvelles données au sujet de la nature de nos sensations, mémoire, perception et procédés d'abstraction. Aussi l'épistémologie est rentrée pleinement dans le domaine d'une discipline expérimentale, comme plusieurs philosophes (de Hume à Quine) l'ont souhaité. Elle s'est enfin adressée, dans l'expérience actuelle, vers la soi-disant "épistémologie expérimentale", lieu qui met en accord la rigueur expérimentale de la science avec la profondeur et la sophistiquée finesse argumentative de la tradition philosophique. Comment en arrivons-nous à connaître? Quels liens mettons-nous à ce qu'on doit être connu? Pourquoi suivons-nous certaines vois au lieu d'autres? Comment en arrivons-nous à formuler des opinions et à prendre des décisions? Quelle valeur a la connaissance qu'on a déjà acquise par l'élaboration des nouvelles expériences? En particulier, quelle est l'importance des attentes et des souvenirs dans cette évolution? Quel est le rapport entre expérience, connaissance e mémoire? Comment fixons et rappelons-nous nos souvenirs? Quel est le rapport entre conscience et mémoire? Ces sont quelques-unes des questions que l'auteur se pose dans cette perspective et aux quelles essaie de répondre a partir de l'analyse et l'évaluation du dialogue-débat entre fra J.-P. Changeux et P. Ricoeur, pour en apprendre le langage, comprendre les problèmes soulevés, s'adapter à la complexité du sujet. Dans le contexte de la philosophie du cerveau, la "lecture" du dialogue reparcourt les parcours des deux interlocuteurs par l'analyse de leur ouvrages, d'une part celles du savant (sur la structure et la dynamique du cerveau, la théorie de l'épigenèse et stabilisation sélective; les spéculations sur l'homme neuronal et les commentaires anthropologiques; les théories de la connaissance et de la conscience, de même que sur la connaissance de la mathématique, les sujets d'esthétique et étique; d'autre part celles du philosophe (du Cogito réflexif à la découverte de l'herméneutique, de les hétérogènes réflexions sur le Conflit des interprétations à la grande théorie sur la créativité du langage, les conclusions théoriques sur l'herméneutique du soi et l'ontologie de l'agir). L'issue est la determination des relatives positions: celle de Changeux parmi les neuro-scientifiques qui s'occupent de questions philosophiques, épistémologiques et éthiques, et celle de Ricoeur parmi les philosophes qui s'occupent de neurosciences. La conclusion de la thèse se développe dans un approfondissement théorétique que de la notion de "trace" à l'expérience de la "mémoire", à l'effet de nouer les fils de la discussion passée en revue et d'assurer un appui pas forcé au débat plus vaste. Le thème de la mémoire a été choisi pour des raisons intrinsèques, puisqu'il est un des thèmes principaux des neurosciences, de la philosophie de l'esprit et de la phénoménologie. Sur un premier plan épistémologique il est établi une comparaison entre la proposition de la neurophénoménologie (Varala, par exemple) et la position soutenue en particulier par Ricoeur au sujet de ce courant phénoménologique et de son "projet unifiant", position défilée et, à certains égards, critiquement hésitante sur le fait qu'on puisse vraiment en venir à un "troisième discours". On rend compte du grand intérêt et des résultats les plus significatifs de la réflexion phénoménologique ancienne et moderne sur la mémoire. Sur un second plan neurophénoménologique on illustre des plans de recherche récents sur cet argument au-dedans des sciences cognitives et on rend compte des résultats les plus distinctives. Sur un troisième et conclusif plan on approfondit le sens théologique de la mémoire.