269 resultados para Palin, Tutta
Resumo:
La tesi si propone di sviluppare un modello, l'architettura e la tecnologia per il sistema di denominazione del Middleware Coordinato TuCSoN, compresi gli agenti, i nodi e le risorse. Identità universali che rappresentano queste entità, sia per la mobilità fisica sia per quella virtuale, per un Management System (AMS, NMS, RMS) distribuito; tale modulo si occupa anche di ACC e trasduttori, prevedendo questioni come la tolleranza ai guasti, la persistenza, la coerenza, insieme con il coordinamento disincarnata in rete, come accade con le tecnologie Cloud. All’interno dell’elaborato, per prima cosa si è fatta una introduzione andando a descrivere tutto ciò che è contenuto nell’elaborato in modo da dare una visione iniziale globale del lavoro eseguito. Di seguito (1° capitolo) si è descritta tutta la parte relativa alle conoscenze di base che bisogna avere per la comprensione dell’elaborato; tali conoscenze sono relative a TuCSoN (il middleware coordinato con cui il modulo progettato dovrà interfacciarsi) e Cassandra (sistema server distribuito su cui si appoggia la parte di mantenimento e salvataggio dati del modulo). In seguito (2° capitolo) si è descritto JADE, un middleware da cui si è partiti con lo studio per la progettazione del modello e dell’architettura del modulo. Successivamente (3° capitolo) si è andati a spiegare la struttura e il modello del modulo considerato andando ad esaminare tutti i dettagli relativi alle entità interne e di tutti i legami fra esse. In questa parte si è anche dettagliata tutta la parte relativa alla distribuzione sulla rete del modulo e dei suoi componenti. In seguito (4° capitolo) è stata dettagliata e spiegata tutta la parte relativa al sistema di denominazione del modulo, quindi la sintassi e l’insieme di procedure che l’entità consumatrice esterna deve effettuare per ottenere un “nome universale” e quindi anche tutti i passaggi interni del modulo per fornire l’identificatore all’entità consumatrice. Nel capitolo successivo (5° capitolo) si sono descritti tutti i casi di studio relativi alle interazioni con le entità esterne, alle entità interne in caso in cui il modulo sia o meno distribuito sulla rete, e i casi di studio relativi alle politiche, paradigmi e procedure per la tolleranza ai guasti ed agli errori in modo da dettagliare i metodi di riparazione ad essi. Successivamente (6° capitolo) sono stati descritti i possibili sviluppi futuri relativi a nuove forme di interazione fra le entità che utilizzano questo modulo ed alle possibili migliorie e sviluppi tecnologici di questo modulo. Infine sono state descritte le conclusioni relative al modulo progettato con tutti i dettagli in modo da fornire una visione globale di quanto inserito e descritto nell’elaborato.
Resumo:
L'impresa di rivitalizzare il settore nord della Città Universitaria di Bogota, consacrato all'educazione fisica, può trovare un aiuto insperato nelle fonti storiche, come i progetti originali dell'architetto Leopoldo Rother e il piano formativo del pedagogo Fritz Karsen. Analizzando il lavoro da essi compiuto negli anni Trenta, vengono alla luce tutti gli elementi che concorrono a fare di un'area da decenni non più centrale alla vita del campus un polo di attrazione per un pubblico proveniente da tutta la capitale colombiana. Un nuovo edificio, il centro sportivo polifunzionale, diventa così il fulcro per dare importanza ad un'area pensata per essere importante fin dalla sua concezione.
Resumo:
La tesi è il risultato di un tirocinio, della durata di cinque mesi, svolto presso l'Azienda 'Aliva', che si occupa di sistemi di facciate. Lo scopo della tesi è la realizzazione di un nuovo sistema di fissaggio a scomparsa di lastre in vetro. Tutta la ricerca è scaturita dalla richiesta dell'azienda per realizzare un nuovo prodotto di fissaggio di lastre di grandi dimensioni in vetro con impatto visivo molto ridotto. Il sistema unisce due tecnologie: - sistema meccanico; - sistema adesivo strutturale di alte performance. Partendo da dei test di laboratorio, la tesi consisterà nell'effettuare le verifiche agli elementi finiti, con l'ausilio del software Strauss7, di lastre in vetro stratificato e vetro camera.
Resumo:
La ricerca pone al centro dell’indagine lo studio dell’importanza del cibo nelle cerimonie nuziali dell’Europa occidentale nei secoli V-XI. Il corpus di fonti utilizzate comprende testi di genere diverso: cronache, annali, agiografie, testi legislativi, a cui si è aggiunta un’approfondita analisi delle antiche saghe islandesi. Dopo un'introduzione dedicata in particolare alla questione della pubblicità della celebrazione, la ricerca si muove verso lo studio del matrimonio come “processo” sulla base della ritualità alimentare: i brindisi e i banchetti con cui si sigla l’accordo di fidanzamento e i ripetuti convivi allestiti per celebrare le nozze. Si pone attenzione anche ad alcuni aspetti trasversali, come lo studio del caso della “letteratura del fidanzamento bevuto”, ossia una tradizione di testi letterari in cui il fidanzamento tra i protagonisti viene sempre ratificato con un brindisi; a questo si aggiunge un’analisi di stampo antropologico della "cultura dell’eccesso", tipica dei rituali alimentari nuziali nel Medioevo, in contrasto con la contemporanea "cultura del risparmio". L'analisi si concentra anche sulle reiterate proibizioni al clero, da parte della Chiesa, di partecipare a banchetti e feste nuziali, tratto comune di tutta l’epoca altomedievale. Infine, la parte conclusiva della ricerca è incentrata sulla ricezione altomedievale di due figure bibliche che pongono al centro della narrazione un banchetto nuziale: la parabola delle nozze e il banchetto di Cana. L’insistente presenza di questi due brani nelle parole dei commentatori biblici mostra la straordinaria efficacia del “linguaggio alimentare”, ossia di un codice linguistico basato sul cibo (e su contesti quali l’agricoltura, la pesca, ecc.) come strumento di comunicazione sociale di massa con una valenza antropologica essenzialmente universale.
Resumo:
Negli ultimi decenni, in varie parti del Mondo cosi come in Italia, si è assistito a un rapido aumento di strutture abitative, fabbricati ad uso industriale, residenziale e rurale. La continua sottrazione di terreno per tali scopi ha portato a un aumento di tutta una serie di problematiche ambientali. Con la diminuzione delle aree verdi si è andati incontro a una diminuzione della trattenuta idrica del terreno, all'aumento della velocità di scolo dell'acqua e del tempo di corrivazione con conseguenze sempre più drammatiche per le aree urbanizzate nei periodi di forti piogge. Inoltre, c'è da ricordare, che una diminuzione delle aree a verde comporta, oltre al cambiamento a livello paesaggistico, anche una diminuzione della capacità delle piante di trattenere le polveri inquinanti e di produrre ossigeno. Tutti questi fattori hanno portato allo studio di soluzioni tecnologiche che potessero unire i bisogni di verde della collettività con la necessità di una gestione sostenibile delle acque meteoriche. Tra esse, una che sta trovando notevole applicazione è la creazione di aree verdi sulla copertura degli edifici. Secondo le loro caratteristiche, queste aree verdi sono denominate tetti verdi e/o giardini pensili. La struttura si compone di strati di coltivazione e drenaggio con diversa profondità e una copertura vegetale. La vegetazione utilizzata può andare da specie con bassissime richieste manutentive (tipo estensivo) ad altre con maggiori necessità (tipo intensivo), come i tappeti erbosi. Lo scopo di questa tesi è stato quello di approntare una sperimentazione sul nuovo tetto verde realizzato presso la sede di Ingegneria, via Terracini 28, volta a stimare i costi economici e ambientali sostenuti per la realizzazione dello stesso, per poi confrontarli con i benefici ambientali legati al risparmio idrico ed energetico su scala edificio e urbana. Per la stima dei costi ambientali dei materiali utilizzati, dalla nascita al fine vita, si è utilizzato il metodo LCA- Life Cycle Assessment- e il software Sima Pro
Resumo:
Ci rendiamo conto del valore dell’acqua solamente quando scarseggia. Fino ad oggi il problema poteva sembrare limitato ai Paesi più poveri di tale risorsa, ma le cose potrebbero cambiare perché l’acqua “di qualità” – ossia dolce e non inquinata – rappresenta solo una minima percentuale delle nostre riserve. E noi ne usiamo sempre di più: sia perché aumenta la popolazione della Terra, sia perché il maggiore benessere raggiunto da molti Paesi spinge la popolazione a consumare (e sprecare) più acqua. Un consumo che va esaminato non solo in termini “reali” (calcolando le quantità che si usano per la cura personale, per la cucina o per la pulizia della casa), ma anche “virtuali” (in termini di impronta idrica), stimando cioè tutta l’acqua che è stata utilizzata lungo l’intero ciclo di vita di un qualunque prodotto o servizio acquistato. Basti pensare che se si modificasse il proprio stile alimentare, passando ad esempio a prediligere una dieta più ricca di frutta, verdura e cereali, limitando la quantità di proteine animali, sarebbe possibile ridurre anche in modo significativo i consumi di acqua “virtuale”. Quindi, se da un lato la domanda cresce e dall’altro le risorse si riducono, anche per colpa dell’inquinamento e del cambiamento climatico, è sicuro che il valore economico dell’acqua aumenterà e le disuguaglianze, già oggi presenti, potranno portare nuovi attriti. Per questi motivi diventa fondamentale il concetto di Water Footprint, ossia l’analisi delle quantità di acqua utilizzata all’interno di tutta la filiera che porta alla produzione di un prodotto finito. Visto il mio corso di studi in ingegneria gestionale, ho deciso di concentrarmi principalmente sul concetto di Water Footprint all’interno dell’ambito industriale, analizzando in particolare il caso di un’azienda dell’Emilia Romagna. Ho scelto questo argomento perché sono sempre stato interessato all’ambiente e alla sua salvaguardia. Trattare nella tesi tale tema mi è sembrato utile per approfondire e diffondere concetti come quelli dell’impronta idrica e dell’acqua virtuale che, pur discussi a livello internazionale ormai da anni, tardano ancora ad essere affrontati in maniera ampia in Italia, che è il terzo Paese importatore netto di acqua virtuale al mondo.
Resumo:
L’obbiettivo del lavoro è quello di delimitare uno spazio critico che consenta di ripensare il concetto di modernità nelle culture ispanoamericane degli inizi del XX secolo. In questa direzione, si è deciso di focalizzare l’attenzione su un’opera letteraria, quella dell’uruguaiano Julio Herrera y Reissig, del tutto particolare se comparata al resto delle produzioni estetiche a essa più immediatamente contigue. Tornare a leggere Herrera y Reissig equivale, infatti, nella sostanza, a rimettere mano criticamente a tutta l’epoca modernista, interpretandola non in senso unitario, bensì plurale e frammentario. Spunto di partenza dell’analisi sono state le coordinate culturali comuni in cui quelle estetiche si sono determinate e sviluppate, per poi procedere verso una moltiplicazione di percorsi in grado di rendere conto della sostanziale discrepanza di mezzi e finalità che intercorre fra Julio Herrera y Reissig e gran parte del Modernismo a lui contemporaneo. Mantenendo come base metodologica i presupposti dell’archeologia culturale foucauldiana, è stato possibile rintracciare, nell’opera dell’uruguaiano, un eterogeneo ma costante movimento di riemersione e riutilizzo delle più svariate esperienze del pensiero – estetico e non – occidentale. Nelle particolarità d’uso a cui la tradizione è sottomessa nella scrittura di Herrera y Reissig si è reso così possibile tornare a ragionare sui punti focali dell’esperienza della modernità: il legame fra patrimonio culturale e attualità, la relazione fra sedimentazione tradizionale e novità, nonché, in definitiva, le modalità attraverso le quali alla letteratura è consentito di pensare e dire la propria storia – passata, presente e futura – e, in conseguenza, metabolizzarla, per tornare ad agire attivamente su di essa.
Resumo:
Il presente progetto di ricerca riguarda la terza trilogia di romanzi di Nuruddin Farah, “Past Imperfect” (2004-2011). L’analisi dei tre testi che compongono la trilogia – “Links” (2004), “Knots” (2007) e “Crossbones” (2011) – evidenzia la persistente rilevanza delle narrazioni e delle rappresentazioni della famiglia all’interno di tutta la produzione letteraria dell’autore. Questa prospettiva critica richiede l’impiego di una metodologia che riunisce vari aspetti della critica letteraria di matrice post-strutturalista e, per altri versi, di stampo materialista, assecondando così le due principali tendenze critiche presenti all’interno degli studi postcoloniali. Lo stesso approccio teorico-metodologico può essere applicato anche in altri due ambiti critici chiamati in causa dalla trilogia di Nuruddin Farah: la cosiddetta “world literature” e la cosiddetta “failed-state fiction”. L’analisi delle narrazioni e delle rappresentazioni della famiglia richiede, inoltre, un approccio interdisciplinare molto esteso, stimolando ricerche negli ambiti della semiotica, dell’antropologia, della psicanalisi, dei Gender Studies e dei Trauma Studies.
Resumo:
La tesi affronta il tema dell'innovazione della scuola, oggetto di costante attenzione da parte delle organizzazioni internazionali e dei sistemi educativi nazionali, per le sue implicazioni economiche, sociali e politiche, e intende portare un contributo allo studio sistematico e analitico dei progetti e delle esperienze di innovazione complessiva dell'ambiente di apprendimento. Il concetto di ambiente di apprendimento viene approfondito nelle diverse prospettive di riferimento, con specifica attenzione al framework del progetto "Innovative Learning Environments" [ILE], dell’Organisation For Economic And Cultural Development [OECD] che, con una prospettiva dichiaratamente olistica, individua nel dispositivo dell’ambiente di apprendimento la chiave per l’innovazione dell’istruzione nella direzione delle competenze per il ventunesimo Secolo. I criteri presenti nel quadro di riferimento del progetto sono stati utilizzati per un’analisi dell’esperienza proposta come caso di studio, Scuola-Città Pestalozzi a Firenze, presa in esame perché nell’anno scolastico 2011/2012 ha messo in pratica appunto un “disegno” di trasformazione dell’ambiente di apprendimento e in particolare dei caratteri del tempo/scuola. La ricerca, condotta con una metodologia qualitativa, è stata orientata a far emergere le interpretazioni dei protagonisti dell’innovazione indagata: dall’analisi del progetto e di tutta la documentazione fornita dalla scuola è scaturita la traccia per un focus-group esplorativo attraverso il quale sono stati selezionati i temi per le interviste semistrutturate rivolte ai docenti (scuola primaria e scuola secondaria di primo grado). Per quanto concerne l’interpretazione dei risultati, le trascrizioni delle interviste sono state analizzate con un approccio fenomenografico, attraverso l’individuazione di unità testuali logicamente connesse a categorie concettuali pertinenti. L’analisi dei materiali empirici ha permesso di enucleare categorie interpretative rispetto alla natura e agli scopi delle esperienze di insegnamento/apprendimento, al processo organizzativo, alla sostenibilità. Tra le implicazioni della ricerca si ritengono particolarmente rilevanti quelle relative alla funzione docente.
Resumo:
Una stella non è un sistema in "vero" equilibrio termodinamico: perde costantemente energia, non ha una composizione chimica costante nel tempo e non ha nemmeno una temperatura uniforme. Ma, in realtà, i processi atomici e sub-atomici avvengono in tempi così brevi, rispetto ai tempi caratteristici dell'evoluzione stellare, da potersi considerare sempre in equilibrio. Le reazioni termonucleari, invece, avvengono su tempi scala molto lunghi, confrontabili persino con i tempi di evoluzione stellare. Inoltre il gradiente di temperatura è dell'ordine di 1e-4 K/cm e il libero cammino medio di un fotone è circa di 1 cm, il che ci permette di assumere che ogni strato della stella sia uno strato adiabatico a temperatura uniforme. Di conseguenza lo stato della materia negli interni stellari è in una condizione di ``quasi'' equilibrio termodinamico, cosa che ci permette di descrivere la materia attraverso le leggi della Meccanica Statistica. In particolare lo stato dei fotoni è descritto dalla Statistica di Bose-Einstein, la quale conduce alla Legge di Planck; lo stato del gas di ioni ed elettroni non degeneri è descritto dalla Statistica di Maxwell-Boltzmann; e, nel caso di degenerazione, lo stato degli elettroni è descritto dalla Statistica di Fermi-Dirac. Nella forma più generale, l'equazione di stato dipende dalla somma dei contributi appena citati (radiazione, gas e degenerazione). Vedremo prima questi contributi singolarmente, e dopo li confronteremo tra loro, ottenendo delle relazioni che permettono di determinare quale legge descrive lo stato fisico di un plasma stellare, semplicemente conoscendone temperatura e densità. Rappresentando queste condizioni su un piano $\log \rho \-- \log T$ possiamo descrivere lo stato del nucleo stellare come un punto, e vedere in che stato è la materia al suo interno, a seconda della zona del piano in cui ricade. È anche possibile seguire tutta l'evoluzione della stella tracciando una linea che mostra come cambia lo stato della materia nucleare nelle diverse fasi evolutive. Infine vedremo come leggi quantistiche che operano su scala atomica e sub-atomica siano in grado di influenzare l'evoluzione di sistemi enormi come quelli stellari: infatti la degenerazione elettronica conduce ad una massa limite per oggetti completamente degeneri (in particolare per le nane bianche) detta Massa di Chandrasekhar.
Resumo:
Nel settore dell'elettronica organica, i monocristalli organici sono particolarmente indicati, grazie al loro alto grado di purezza chimica, per lo studio delle qualità intrinseche di tutta la categoria dei cristalli organici. L'interesse applicativo si concretizza in dispositivi come LED, pannelli solari, sensori, display e componenti elettronici leggeri, flessibili e trasparenti. A tutto questo si aggiungono la biocompatibilità, il basso costo ed il basso impatto ambientale. L'obiettivo del seguente lavoro di tesi è la caratterizzazione di alcuni monocristalli in base alle loro proprietà ottiche ed optoelettroniche, analizzandoli mediante tecniche microscopiche in luce polarizzata e campo scuro e tecniche spettroscopiche di assorbimento e del voltaggio superficiale. Si è concentrata l'attenzione sul monocristallo di 4-idrossicianobenzene (4HCB), per la possibilità di confronto con risultati di precedenti analisi di spettroscopia in fotocorrente e per l'interesse verso applicazioni sensoristiche. Come risultato, per la prima volta, si è riuscito a ottenere uno spettro di assorbimento da un monocristallo di 4HCB dal quale si può stimare direttamente l'energia del bandgap del cristallo. Il valore ottenuto è minore di quello relativo all'analisi in fotocorrente, ma potrebbe corrispondere ad un bandgap di tipo ottico considerando che la presenza di stati localizzati dovuta al disordine molecolare provoca una diminuzione della distanza tra le bande. La misura è preliminare è va confermata, ma apre la strada ad ulteriori analisi spettroscopiche in condizioni sperimentali più favorevoli e/o ad analisi di altro tipo.
Resumo:
Ferrara è tra le città con le quali Piero Bottoni (1903-1973) ha istaurato un rapporto proficuo e duraturo che gli permise di elaborare molti progetti e che fu costante lungo quasi tutta la parabola professionale dell’autore milanese. Giunto nella città estense nei primi anni Trenta, vi lavorò nei tre decenni successivi elaborando progetti che spaziavano dalla scala dell’arredamento d’interni fino a quella urbana; i diciannove progetti studiati, tutti situati all’interno del centro storico della città, hanno come tema comune la relazione tra nuova architettura e città esistente. Osservando un ampio spettro di interventi che abbracciava la progettazione sull'esistente come quella del nuovo, Bottoni propone una visione dell'architettura senza suddivisioni disciplinari intendendo il restauro e la costruzione del nuovo come parti di un processo progettuale unitario. Sullo sfondo di questa vicenda, la cultura ferrarese tra le due guerre e nel Dopoguerra si caratterizza per il continuo tentativo di rendere attuale la propria storia rinascimentale effettuando operazioni di riscoperta che con continuità, a discapito dei cambiamenti politici, contraddistinguono le esperienze culturali condotte nel corso del Novecento. Con la contemporanea presenza durante gli anni Cinquanta e Sessanta di Bottoni, Zevi, Pane, Michelucci, Piccinato, Samonà, Bassani e Ragghianti, tutti impegnati nella costruzione dell’immagine storiografica della Ferrara rinascimentale, i caratteri di questa stagione culturale si fondono con i temi centrali del dibattito architettonico italiano e con quello per la salvaguardia dei centri storici. L’analisi dell’opera ferrarese di Piero Bottoni è così l’occasione per mostrare da un lato un carattere peculiare della sua architettura e, dall’altro, di studiare un contesto cultuale provinciale al fine di mostrare i punti di contatto tra le personalità presenti a Ferrara in quegli anni, di osservarne le reciproche influenze e di distinguere gli scambi avvenuti tra i principali centri della cultura architettonica italiana e un ambito geografico solo apparentemente secondario.
Resumo:
Nonostante lo sforzo sempre crescente mirato allo studio delle malattie che colpiscono le sclerattinie, ancora poco si sa circa distribuzione, prevalenza, host range e fattori che concorrono alla comparsa di queste patologie, soprattutto nell’area indopacifica. Questo studio si propone quindi lo scopo di documentare la presenza della Brown Band Disease all’interno delle scogliere madreporiche dell’Arcipelago delle Maldive. Nell’arco di tempo tra Novembre e Dicembre 2013 è stata effettuata una valutazione di tipo quantitativo di tale patologia su tre isole appartenenti l’Atollo di Faafu, rispettivamente Magoodhoo, Filitheyo e Adangau. Queste tre isole sono caratterizzate da un diverso sfruttamento da parte dell’uomo: la prima isola è abitata da locali, la seconda caratterizzata dalla presenza di un resort e l’ultima, un’isola deserta. Al fine di valutare prevalenza, distribuzione e host range della BrBD sono stati effettuati belt transect (25x2 m), point intercept transect e analisi chimico fisiche delle acque. La Brown Band Disease è risultata essere diffusa tra le isole con prevalenze inferiori al 0,50%. Queste non hanno mostrato differenze significative tra le isole, facendo quindi ipotizzare che i diversi valori osservati potrebbero essere imputati a variazioni casuali e naturali. In tutta l’area investigata, le stazioni più profonde hanno mostrato valori di prevalenza maggiori. La patologia è stata registrata infestare soprattutto il genere Acropora (con prevalenza media totale inferiore all’1%) e in un solo caso il genere Isopora. È stato dimostrato come sia presente una correlazione negativa tra densità totale delle sclerattinie e la prevalenza della Brown Band sul genere Acropora. É stato inoltre notato come vi fosse una correlazione positiva tra la prevalenza della BrBD e la presenza del gasteropode Drupella sulle colonie già malate. Poiché il principale ospite della patologia è anche il più abbondante nelle scogliere madreporiche maldiviane, si rendono necessari ulteriori accertamenti e monitoraggi futuri della BrBD.
Resumo:
Ad oggi, grazie al progresso tecnologico, sono stati realizzati accuratissimi rivelatori di radiazione infrarossa, rendendo possibili misure altamente precise. L’impiego massiccio dell’indagine termografica infrarossa è basato sull’emissione termica da parte della materia. Tutta la materia a temperatura superiore dello zero assoluto emette radiazione elettromagnetica con una certa distribuzione spettrale, dipendente dalla temperatura e dalle caratteristiche costitutive. Le capacità emissive di un corpo sono quantificate da un parametro, l’emissività, che confronta i corpi reali con il corpo nero, modellizzazione matematica di un perfetto emettitore. I corpi a temperatura ambiente emettono principalmente nell’infrarosso. Poichè la radiazione infrarossa non è percepibile dall’occhio umano, i corpi a temperature ordinarie non appaiono luminosi e sono visti brillare unicamente di luce riflessa. Solo fornendo calore al sistema, aumentandone cioè la temperatura, l’emissione di picco si sposta verso le frequenze del visibile ed i corpi appaiono luminosi; si pensi ad esempio alle braci della legna bruciata. La possibilità di rivelare la radiazione infrarossa con opportuni dispositivi permette quindi di vedere la “luce” emessa da corpi relativamente freddi. Per questo motivo la termografia trova applicazione nella visione o videoregistrazione notturna o in condizioni di scarsa visibilità. Poichè la distribuzione spettrale dipende dalla temperatura, oltre al picco di emissione anche la quantità di radiazione emessa dipende dalla teperatura, in particolare è proporzionale alla quarta potenza della temperatura. Rilevando la quantità di radiazione emessa da un corpo se ne può dunque misurare la temperatura superficiale, o globale se il corpo è in equilibrio termico. La termometria, ovvero la misura della temperatura dei corpi, può dunque sfruttare la termografia per operare misure a distanza o non invasive.
Resumo:
Nell'ultimo decennio il trend topic nell'ambito dell'insegnamento dell'informatica è il pensiero computazionale. Concetto già presente, è stato risaltato nel 2006 da Jeannette Wing, che ha mostrato come l'informatica abbia portato alla scienza non solo strumenti (computer e linguaggi di programmazione) ma anche innovazioni nel modo di pensare (es. algoritmo shotgun per sequenziamento del DNA umano). Il pensiero computazionale è il processo mentale coinvolto nel formulare problemi e loro soluzioni, rappresentate in una forma che sia effettivamente eseguibile da un agente che processa informazioni. Si tratta di “pensare come un informatico” quando si affronta un problema. Dopo aver passato in rassegna la letteratura sul pensiero computazionale, viene proposta una definizione del concetto. Si prende atto che la ricerca in questi anni sia rimasta molto legata ai linguaggi di programmazione, concetto centrale dell’Informatica. Vengono allora proposte due strade. La prima strada consiste nella riesumazione di tutta una serie di studi di Psicologia della Programmazione, in particolare: studi sulle misconcezioni, che si occupano di individuare i concetti che sono compresi male dai programmatori novizi, e studi sul commonsense computing, che cercano di capire come persone che non hanno mai ricevuto nozioni di programmazione - o più in generale di informatica – esprimano (in linguaggio naturale) concetti e processi computazionali. A partire da queste scoperte, si forniscono una serie di consigli per insegnare al meglio la programmazione (con i linguaggi attuali, con nuovi linguaggi appositamente progettati, con l'aiuto di strumenti ed ambienti ad-hoc) al più ampio pubblico possibile. La seconda strada invece porta più lontano: riconoscere il pensiero computazionale come quarta abilità di base oltre a leggere, scrivere e calcolare, dandogli dunque grande importanza nell’istruzione. Si vuole renderlo “autonomo” rispetto alla programmazione, fornendo consigli su come insegnarlo senza - ma anche con - l'ausilio di un formalismo.