972 resultados para Linguaggio inclusivo,Accessibilità,Disabilità
Resumo:
Nella mia tesi di dottorato mi propongo di indagare la metamorfosi del romanzo nella letteratura italiana contemporanea attraverso il lavoro di Paolo Volponi, che può essere descritto come un’«opera mondo», in accordo con la formula critica coniata da Franco Moretti. Volponi intende superare il divario fra l’io e il mondo e ricomporre il corpo come una mediazione umanistica di ragione e sensi. La sua opera può essere definita ‘epica’ perché recupera la tradizione del romanzo cavalleresco e la parodia esercitata su questa tradizione letteraria da Cervantes nel Don Chisciotte. Ma, come l’Ulysses di Joyce, è un’epica «moderna» perché fondata su una totalità disgiunta e sul conflitto dialogico, in una linea che accomuna la moltiplicazione dei punti di vista, propria del romanzo polifonico secondo Bachtin, alla pluralità di prospettive del discorso scientifico. Dopo un primo capitolo teorico, nel secondo e nel terzo capitolo della tesi i romanzi di Volponi vengono studiati in rapporto al filone dell’«epica moderna» e al genere satirico, che ha un suo modello fondativo nell’opera di Giacomo Leopardi. Il quarto capitolo si focalizza sulle ultime raccolte poetiche, che mostrano la tendenza a recuperare il linguaggio formulare e la matrice orale della poesia delle origini, servendosene per rappresentare in funzione contrappuntistica l’universo globale dell’età contemporanea.
Resumo:
Fra le varie ragioni della crescente pervasività di Internet in molteplici settori di mercato del tutto estranei all’ICT, va senza dubbio evidenziata la possibilità di creare canali di comunicazione attraverso i quali poter comandare un sistema e ricevere da esso informazioni di qualsiasi genere, qualunque distanza separi controllato e controllore. Nel caso specifico, il contesto applicativo è l’automotive: in collaborazione col Dipartimento di Ingegneria Elettrica dell’Università di Bologna, ci si è occupati del problema di rendere disponibile a distanza la grande quantità di dati che i vari sotto-sistemi componenti una automobile elettrica si scambiano fra loro, sia legati al tipo di propulsione, elettrico appunto, come i livelli di carica delle batterie o la temperatura dell’inverter, sia di natura meccanica, come i giri motore. L’obiettivo è quello di permettere all’utente (sia esso il progettista, il tecnico riparatore o semplicemente il proprietario) il monitoraggio e la supervisione dello stato del mezzo da remoto nelle sue varie fasi di vita: dai test eseguiti su prototipo in laboratorio, alla messa in strada, alla manutenzione ordinaria e straordinaria. L’approccio individuato è stato quello di collezionare e memorizzare in un archivio centralizzato, raggiungibile via Internet, tutti i dati necessari. Il sistema di elaborazione a bordo richiede di essere facilmente integrabile, quindi di piccole dimensioni, e a basso costo, dovendo prevedere la produzione di molti veicoli; ha inoltre compiti ben definiti e noti a priori. Data la situazione, si è quindi scelto di usare un sistema embedded, cioè un sistema elettronico di elaborazione progettato per svolgere un limitato numero di funzionalità specifiche sottoposte a vincoli temporali e/o economici. Apparati di questo tipo sono denominati “special purpose”, in opposizione ai sistemi di utilità generica detti “general purpose” quali, ad esempio, i personal computer, proprio per la loro capacità di eseguire ripetutamente un’azione a costo contenuto, tramite un giusto compromesso fra hardware dedicato e software, chiamato in questo caso “firmware”. I sistemi embedded hanno subito nel corso del tempo una profonda evoluzione tecnologica, che li ha portati da semplici microcontrollori in grado di svolgere limitate operazioni di calcolo a strutture complesse in grado di interfacciarsi a un gran numero di sensori e attuatori esterni oltre che a molte tecnologie di comunicazione. Nel caso in esame, si è scelto di affidarsi alla piattaforma open-source Arduino; essa è composta da un circuito stampato che integra un microcontrollore Atmel da programmare attraverso interfaccia seriale, chiamata Arduino board, ed offre nativamente numerose funzionalità, quali ingressi e uscite digitali e analogici, supporto per SPI, I2C ed altro; inoltre, per aumentare le possibilità d’utilizzo, può essere posta in comunicazione con schede elettroniche esterne, dette shield, progettate per le più disparate applicazioni, quali controllo di motori elettrici, gps, interfacciamento con bus di campo quale ad esempio CAN, tecnologie di rete come Ethernet, Bluetooth, ZigBee, etc. L’hardware è open-source, ovvero gli schemi elettrici sono liberamente disponibili e utilizzabili così come gran parte del software e della documentazione; questo ha permesso una grande diffusione di questo frame work, portando a numerosi vantaggi: abbassamento del costo, ambienti di sviluppo multi-piattaforma, notevole quantità di documentazione e, soprattutto, continua evoluzione ed aggiornamento hardware e software. È stato quindi possibile interfacciarsi alla centralina del veicolo prelevando i messaggi necessari dal bus CAN e collezionare tutti i valori che dovevano essere archiviati. Data la notevole mole di dati da elaborare, si è scelto di dividere il sistema in due parti separate: un primo nodo, denominato Master, è incaricato di prelevare dall’autovettura i parametri, di associarvi i dati GPS (velocità, tempo e posizione) prelevati al momento della lettura e di inviare il tutto a un secondo nodo, denominato Slave, che si occupa di creare un canale di comunicazione attraverso la rete Internet per raggiungere il database. La denominazione scelta di Master e Slave riflette la scelta fatta per il protocollo di comunicazione fra i due nodi Arduino, ovvero l’I2C, che consente la comunicazione seriale fra dispositivi attraverso la designazione di un “master” e di un arbitrario numero di “slave”. La suddivisione dei compiti fra due nodi permette di distribuire il carico di lavoro con evidenti vantaggi in termini di affidabilità e prestazioni. Del progetto si sono occupate due Tesi di Laurea Magistrale; la presente si occupa del dispositivo Slave e del database. Avendo l’obiettivo di accedere al database da ovunque, si è scelto di appoggiarsi alla rete Internet, alla quale si ha oggi facile accesso da gran parte del mondo. Questo ha fatto sì che la scelta della tecnologia da usare per il database ricadesse su un web server che da un lato raccoglie i dati provenienti dall’autovettura e dall’altro ne permette un’agevole consultazione. Anch’esso è stato implementato con software open-source: si tratta, infatti, di una web application in linguaggio php che riceve, sotto forma di richieste HTTP di tipo GET oppure POST, i dati dal dispositivo Slave e provvede a salvarli, opportunamente formattati, in un database MySQL. Questo impone però che, per dialogare con il web server, il nodo Slave debba implementare tutti i livelli dello stack protocollare di Internet. Due differenti shield realizzano quindi il livello di collegamento, disponibile sia via cavo sia wireless, rispettivamente attraverso l’implementazione in un caso del protocollo Ethernet, nell’altro della connessione GPRS. A questo si appoggiano i protocolli TCP/IP che provvedono a trasportare al database i dati ricevuti dal dispositivo Master sotto forma di messaggi HTTP. Sono descritti approfonditamente il sistema veicolare da controllare e il sistema controllore; i firmware utilizzati per realizzare le funzioni dello Slave con tecnologia Ethernet e con tecnologia GPRS; la web application e il database; infine, sono presentati i risultati delle simulazioni e dei test svolti sul campo nel laboratorio DIE.
Resumo:
Oggetto di questa tesi di Laurea è la progettazione di un quartiere residenziale sostenibile a Bertinoro (FC) richiesto dell’Amministrazione Comunale, orientata anche verso la realizzazione di un parcheggio di attestazione multipiano per il borgo e di una risalita meccanizzata al centro. L’area d’intervento costituisce infatti una posizione strategica per l’arrivo e gli accessi alla città alta. Il progetto quindi affronta due scenari: uno a scala urbana e uno a scala architettonica. Fondamentale è stata la definizione delle strategie urbane: consapevoli dell’importanza di una gestione sostenibile del territorio, questa tesi ha cercato di affrontare le problematiche relative alla mobilità del luogo, caratterizzato da forti pendii, ponendosi come obiettivo l’eliminazione di flussi veicolari nel centro storico e nel contempo la completa accessibilità di quest’ultimo attraverso nuovi sistemi meccanizzati di risalita che incentivino la mobilità pedonale. Ciò ha portato ad un studio dei percorsi di Bertinoro e ad una ricerca sulle varie tipologie sia di parcheggio multipiano che di risalita finalizzata alla definizione della soluzione più efficiente e adeguata per il luogo. A scala architettonica la complessità del progetto è stata quella di dare uguale importanza a dati oggettivi e quantificabili, come orientamento, apporti solari, impianti, senza tralasciare i valori storico-paesaggistici, risorsa fondamentale per quest'area. La sfida è stata quindi quella di progettare un quartiere con dei requisiti energetici che vadano ben oltre i confini determinati dalla normativa e di riuscire ad integrare nel contesto, con il minor impatto ambientale e percettivo, l’intero insediamento, compreso il parcheggio multipiano e la risalita. Il titolo “declivi” sintetizza in questo senso la strategia adottata ovvero tutto il progetto nasce da un attento confronto con le caratteristiche topografiche del luogo cercando di ripristinarle dove sono venute a mancare in una logica non di aggiunta del costruito ma di “crescita” dal suolo. La chiave di lettura è stata in particolare l’idea del terrazzamento e degli affacci sul paesaggio. Durante tutto il processo progettuale si è dunque operato verificando contestualmente ogni scelta dal punto di vista architettonico, tecnologico ed energetico puntando ad un progetto che possa essere definito sostenibile a tutte le sue scale: urbanistica e architettonica.
Resumo:
Nelle attuali organizzazioni sanitarie non è raro trovare operatori sanitari i quali ritengono che la relazione con il paziente consista nell'avere adeguate competenze tecniche inerenti la professione e nell'applicarle con attenzione e diligenza. Peraltro si tende ad invocare il “fattore umano”, ma si lamenta poi che l’operatore si rapporti col paziente in modo asettico e spersonalizzato. Da un punto di vista scientifico il termine “relazione” in psicologia si riferisce essenzialmente ai significati impliciti e quasi sempre non consapevoli veicolati da qualunque relazione: dipende pertanto dalla struttura psichica dei due interlocutori investendo in particolare la sfera dell’affettività e procede per processi comunicativi che travalicano il linguaggio verbale e con esso le intenzioni razionali e coscienti. La relazione interpersonale quindi rientra nel più ampio quadro dei processi di comunicazione: sono questi o meglio i relativi veicoli comunicazionali, che ci dicono della qualità delle relazioni e non viceversa e cioè che i processi comunicazionali vengano regolati in funzione della relazione che si vuole avere (Imbasciati, Margiotta, 2005). Molti studi in materia hanno dimostrato come, oltre alle competenze tecnicamente caratterizzanti la figura dell’infermiere, altre competenze, di natura squisitamente relazionale, giochino un ruolo fondamentale nel processo di ospedalizzazione e nella massimizzazione dell’aderenza al trattamento da parte del paziente, la cui non osservanza è spesso causa di fallimenti terapeutici e origine di aumentati costi sanitari e sociali. Questo aspetto è però spesso messo in discussione a favore di un maggiore accento sugli aspetti tecnico professionali. Da un “modello delle competenze” inteso tecnicisticamente prende origine infatti un protocollo di assistenza infermieristica basato sull’applicazione sistematica del problem solving method: un protocollo preciso (diagnosi e pianificazione) guida l’interazione professionale fra infermiere e la persona assistita. A lato di questa procedura il processo di assistenza infermieristica riconosce però anche un versante relazionale, spesso a torto detto umanistico riferendosi alla soggettività dei protagonisti interagenti: il professionista e il beneficiario dell’assistenza intesi nella loro globalità bio-fisiologica, psicologica e socio culturale. Nel pensiero infermieristico il significato della parola relazione viene però in genere tradotto come corrispondenza continua infermiere-paziente, basata sulle dimensioni personali del bisogno di assistenza infermieristica e caratterizzata da un modo di procedere dialogico e personalizzato centrato però sugli aspetti assistenziali, in cui dall’incontro degli interlocutori si determinerebbe la natura delle cure da fornire ed i mezzi con cui metterle in opera (Colliere, 1992; Motta, 2000). Nell’orientamento infermieristico viene affermata dunque la presenza di una relazione. Ma di che relazione si tratta? Quali sono le capacità necessarie per avere una buona relazione? E cosa si intende per “bisogni personali”? Innanzitutto occorre stabilire cosa sia la buona relazione. La buona o cattiva relazione è il prodotto della modalità con cui l’operatore entra comunque in interazione con il proprio paziente ed è modulata essenzialmente dalle capacità che la sua struttura, consapevole o no, mette in campo. DISEGNO DELLA LA RICERCA – 1° STUDIO Obiettivo del primo studio della presente ricerca, è un’osservazione delle capacità relazionali rilevabili nel rapporto infermiere/paziente, rapporto che si presume essere un caring. Si è voluto fissare l’attenzione principalmente su quelle dimensioni che possono costituire le capacità relazionali dell’infermiere. Questo basandoci anche su un confronto con le aspettative di relazione del paziente e cercando di esplorare quali collegamenti vi siano tra le une e le altre. La relazione e soprattutto la buona relazione non la si può stabilire con la buona volontà, né con la cosiddetta sensibilità umana, ma necessita di capacità che non tutti hanno e che per essere acquisite necessitano di un tipo di formazione che incida sulle strutture profonde della personalità. E’ possibile ipotizzare che la personalità e le sue dimensioni siano il contenitore e gli elementi di base sui quali fare crescere e sviluppare capacità relazionali mature. Le dimensioni di personalità risultano quindi lo snodo principale da cui la ricerca può produrre i suoi risultati e da cui si è orientata per individuare gli strumenti di misura. La motivazione della nostra scelta dello strumento è da ricercare quindi nel tentativo di esplorare l’incidenza delle dimensioni e sottodimensioni di personalità. Tra queste si è ritenuto importante il costrutto dell’Alessitimia, caratteristico nel possesso e quindi nell’utilizzo, più o meno adeguato, di capacità relazionali nel processo di caring,
Resumo:
Il presente lavoro di ricerca si inserisce all’interno degli ambiti di interesse del settore disciplinare dell’ICAR 10 – Architettura Tecnica, rappresentato dalla Storia della costruzione. In questo quadro, lo studio sulla Costruzione Moderna a Bologna tra il 1920 e il 1940, costituisce un tassello di una ricerca più ampia ed intesa a delineare l’importanza assunta dalla vicenda bolognese nel definire il profilo teorico ed applicativo della tecnica in cemento armato nella genesi del linguaggio architettonico che connota l’esperienza del Modernismo italiano degli anni trenta. La ricaduta più diretta della ricerca è rintracciabile nella creazione di una base informativa ipertestuale strutturata secondo diversi livelli di lettura tra loro correlati: la localizzazione, i progettisti e le imprese costruttrici, l’anno di realizzazione, la tipologia, le tecniche costruttive impiegate, la storia dell’edificio, le trasformazioni, la localizzazione della documentazione e le fonti bibliografiche, con collegamenti ipertestuali che consentono di consultare il materiale documentario. Gli esiti di tale studio hanno una duplice finalità: da un lato tale lavoro restituisce una mappatura analitica del patrimonio edilizio costruito nel ventennio analizzato, consentendo una registrazione sintetica ma puntuale delle fonti archivistiche e dei relativi apparati documentali. Un lavoro di supporto indispensabile per ogni futura ricerca intesa ad indagare le singole vicende che hanno accompagnato lo sviluppo edilizio della città di Bologna. In seconda istanza questo studio consente di porre in luce l’importanza assunta dai magisteri tecnici nel definire le scelte di ordine architettonico, ovvero di evidenziare come la conoscenza della storia materiale degli edifici induca a formulare una valutazione più appropriata e stringente sugli esiti architettonici conseguiti, superando così l’astrattezza di una interpretazione votata ai soli aspetti figurativi.
Resumo:
Il presente lavoro di tesi ha come punto focale la descrizione, la verifica e la dimostrazione della realizzabilità dei Workflow Patterns di Gestione del Flusso(Control-Flow) e Risorse (Resource) definiti da parte della Workflow Pattern Initiative (WPI)in JOLIE, un innovativo linguaggio di programmazione orientato ai servizi nato nell'ambito del Service Oriented Computing. Il Service Oriented Computing (SOC) è un nuovo modo di pensare la programmazione di applicazioni distribuite, i cui concetti fondamentali sono i servizi e la composizione. L’approccio SOC definisce la possibilità di costruire un’applicazione in funzione dei servizi che ne realizzano il comportamento tramite una loro composizione, definita secondo un particolare flusso di lavoro. Allo scopo di fornire la necessaria conoscenza per capire la teoria, le meccaniche e i costrutti di JOLIE utilizzati per la realizzazione dei pattern, il seguente lavoro di tesi è stato diviso in quattro parti, corrispondenti ad altrettanti capitoli. Nel primo capitolo viene riportata una descrizione generale del SOC e della Business Process Automation (BPA), che costituisce l’ambiente in cui il SOC è inserito. Per questo viene fatta una disamina della storia informatica sui sistemi distribuiti, fino ad arrivare ai sistemi odierni, presentando in seguito il contesto del BPA e delle innovazioni derivanti dalle sue macro-componenti, di cui il SOC fa parte. Continuando la descrizione dell’approccio Service Oriented, ne vengono presentati i requisiti (pre-condizioni) e si cerca di dare una definizione precisa del termine “servizio”, fino all'enunciazione dei principi SOC declinati nell’ottica delle Service Oriented Architectures, presentando in ultimo i metodi di composizione dei servizi, tramite orchestrazione e coreografia. L’ultima sezione del capitolo prende in considerazione il SOC in un’ottica prettamente industriale e ne evidenzia i punti strategici. Il secondo capitolo è incentrato sulla descrizione di JOLIE, gli aspetti fondamentali dell’approccio orientato ai servizi, che ne caratterizzano profondamente la definizione concettuale (SOCK), e la teoria della composizione dei servizi. Il capitolo non si pone come una descrizione esaustiva di tutte le funzionalità del linguaggio, ma considera soprattutto i concetti teorici, le strutture di dati, gli operatori e i costrutti di JOLIE utilizzati per la dimostrazione della realizzabilità dei Workflow Pattern del capitolo successivo. Il terzo capitolo, più lungo e centrale rispetto agli altri, riguarda la realizzazione dei workflow pattern in JOLIE. All'inizio del capitolo viene fornita una descrizione delle caratteristiche del WPI e dei Workflow Pattern in generale. In seguito, nelle due macro-sezioni relative ai Control-Flow e Resource pattern vengono esposte alcune nozioni riguardanti le metodologie di definizione dei pattern (e.g. la teoria sulla definizione delle Colored Petri Nets) e le convezioni adottate dal WPI, per passare in seguito al vero e proprio lavoro (sperimentale) di tesi riguardo la descrizione dei pattern, l’analisi sulla loro realizzabilità in JOLIE, insieme ad un codice di esempio che esemplifica quanto affermato dall'analisi. Come sommario delle conclusioni raggiunte sui pattern, alla fine di ognuna delle due sezioni definite in precedenza, è presente una scheda di valutazione che, con lo stesso metodo utilizzato e definito dalla WPI, permette di avere una rappresentazione generale della realizzabilità dei pattern in JOLIE. Il quarto capitolo riguarda gli esiti tratti dal lavoro di tesi, riportando un confronto tra le realizzazioni dei pattern in JOLIE e le valutazioni del WPI rispetto agli altri linguaggi da loro considerati e valutati. Sulla base di quanto ottenuto nel terzo capitolo vengono definite le conclusioni del lavoro portato avanti sui pattern e viene delineato un’eventuale scenario riguardante il proseguimento dell’opera concernente la validazione ed il completamento della studio. In ultimo vengono tratte alcune conclusioni sia riguardo JOLIE, nel contesto evolutivo del linguaggio e soprattutto del progetto open-source che è alla sua base, sia sul SOC, considerato nell’ambito del BPA e del suo attuale ambito di sviluppo dinamico.
Resumo:
Riconoscere un gesto, tracciarlo ed identificarlo è una operazione complessa ed articolata. Negli ultimi anni, con l’avvento massivo di interfacce interattive sempre più sofisticate, si sono ampliati gli approcci nell’interazione tra uomo e macchina. L’obiettivo comune, è quello di avere una comunicazione “trasparente” tra l’utente e il computer, il quale, deve interpretare gesti umani tramite algoritmi matematici. Il riconoscimento di gesti è un modo per iniziare a comprendere il linguaggio del corpo umano da parte della macchina. Questa disciplina, studia nuovi modi di interazione tra questi due elementi e si compone di due macro obiettivi : (a) tracciare i movimenti di un particolare arto; (b) riconoscere tale tracciato come un gesto identificativo. Ognuno di questi due punti, racchiude in sé moltissimi ambiti di ricerca perché moltissimi sono gli approcci proposti negli anni. Non si tratta di semplice cattura dell’immagine, è necessario creare un supporto, a volte molto articolato, nel quale i dati grezzi provenienti dalla fotocamera, necessitano di filtraggi avanzati e trattamenti algoritmici, in modo tale da trasformare informazioni grezze, in dati utilizzabili ed affidabili. La tecnologia riguardo la gesture recognition è rilevante come l’introduzione delle interfacce tattili sui telefoni intelligenti. L’industria oggi ha iniziato a produrre dispositivi in grado di offrire una nuova esperienza, la più naturale possibile, agli utenti. Dal videogioco, all’esperienza televisiva gestita con dei piccoli gesti, all’ambito biomedicale, si sta introducendo una nuova generazione di dispositivi i cui impieghi sono innumerevoli e, per ogni ambito applicativo, è necessario studiare al meglio le peculiarità, in modo tale da produrre un qualcosa di nuovo ed efficace. Questo lavoro di tesi ha l’obiettivo di apportare un contributo a questa disciplina. Ad oggi, moltissime applicazioni e dispositivi associati, si pongono l’obiettivo di catturare movimenti ampi: il gesto viene eseguito con la maggior parte del corpo e occupa una posizione spaziale rilevante. Questa tesi vuole proporre invece un approccio, nel quale i movimenti da seguire e riconoscere sono fatti “nel piccolo”. Si avrà a che fare con gesti classificati fini, dove i movimenti delle mani sono compiuti davanti al corpo, nella zona del torace, ad esempio. Gli ambiti applicativi sono molti, in questo lavoro si è scelto ed adottato l’ambito artigianale.
Resumo:
Si presenta IntML, un linguaggio funzionale di recente introduzione che rende possibile la comunicazione bidirezionale; si descrive il funzionamento del suo interprete, a cui abbiamo aggiunto nuove funzionalita' che semplificano le operazioni di debugging e testing degli algoritmi.
Resumo:
Negli ultimi anni si è assistito ad una radicale rivoluzione nell’ambito dei dispositivi di interazione uomo-macchina. Da dispositivi tradizionali come il mouse o la tastiera si è passati allo sviluppo di nuovi sistemi capaci di riconoscere i movimenti compiuti dall’utente (interfacce basate sulla visione o sull’uso di accelerometri) o rilevare il contatto (interfacce di tipo touch). Questi sistemi sono nati con lo scopo di fornire maggiore naturalezza alla comunicazione uomo-macchina. Le nuove interfacce sono molto più espressive di quelle tradizionali poiché sfruttano le capacità di comunicazione naturali degli utenti, su tutte il linguaggio gestuale. Essere in grado di riconoscere gli esseri umani, in termini delle azioni che stanno svolgendo o delle posture che stanno assumendo, apre le porte a una serie vastissima di interessanti applicazioni. Ad oggi sistemi di riconoscimento delle parti del corpo umano e dei gesti sono ampiamente utilizzati in diversi ambiti, come l’interpretazione del linguaggio dei segni, in robotica per l’assistenza sociale, per indica- re direzioni attraverso il puntamento, nel riconoscimento di gesti facciali [1], interfacce naturali per computer (valida alternativa a mouse e tastiera), ampliare e rendere unica l’esperienza dei videogiochi (ad esempio Microsoft 1 Introduzione Kinect© e Nintendo Wii©), nell’affective computing1 . Mostre pubbliche e musei non fanno eccezione, assumendo un ruolo cen- trale nel coadiuvare una tecnologia prettamente volta all’intrattenimento con la cultura (e l’istruzione). In questo scenario, un sistema HCI deve cercare di coinvolgere un pubblico molto eterogeneo, composto, anche, da chi non ha a che fare ogni giorno con interfacce di questo tipo (o semplicemente con un computer), ma curioso e desideroso di beneficiare del sistema. Inoltre, si deve tenere conto che un ambiente museale presenta dei requisiti e alcune caratteristiche distintive che non possono essere ignorati. La tecnologia immersa in un contesto tale deve rispettare determinati vincoli, come: - non può essere invasiva; - deve essere coinvolgente, senza mettere in secondo piano gli artefatti; - deve essere flessibile; - richiedere il minor uso (o meglio, la totale assenza) di dispositivi hardware. In questa tesi, considerando le premesse sopracitate, si presenta una sistema che può essere utilizzato efficacemente in un contesto museale, o in un ambiente che richieda soluzioni non invasive. Il metodo proposto, utilizzando solo una webcam e nessun altro dispositivo personalizzato o specifico, permette di implementare i servizi di: (a) rilevamento e (b) monitoraggio dei visitatori, (c) riconoscimento delle azioni.
Resumo:
Questa tesi parte da un evento “minore” della storia del XIX secolo per tendere, poi, ad alcuni obiettivi particolari. L’evento è costituito da uno strano funerale postumo, quello di Piero Maroncelli, carbonaro finito alla Spielberg, graziato, poi emigrato in Francia e in America, il cui corpo viene sepolto a New York nell’estate del 1846. Quarant’anni dopo, nel 1886, i resti di Maroncelli vengono esumati e – attraverso una “trafila” particolare, di cui è protagonista la Massoneria, da una sponda all’altra dell’Atlantico – solennemente trasferiti nella città natale di Forlì, dove vengono collocati nel pantheon del cimitero monumentale, inaugurato per l’occasione. Gli eventi celebrativi che si consumano a New York e a Forlì sono molto diversi fra loro, anche se avvengono quasi in contemporanea e sotto regie politiche ispirate dal medesimo radicalismo anticlericale. E’ chiaro che Maroncelli è un simbolo e un pretesto: simbolo di un’italianità transnazionale, composta di un “corpo” in transito, fuori dello spazio nazionale, ma appartenente alla patria (quella grande e quella piccola); pretesto per acquisire e rafforzare legami politici, mercè mobilitazioni di massa in un caso fondate sul festival, sulla festa en plein air, nell’altro sui rituali del cordoglio per i “martiri” dell’indipendenza. L’opportunità di comparare questi due contesti – l’Italia, colta nella sua periferia radicale e la New York della Tammany Hall -, non sulla base di ipotesi astratte, ma nella concretezza di un “caso di studio” reale e simultaneo, consente di riflettere sulla pervasività dell’ideologia democratica nella sua accezione ottocentesca, standardizzata dalla Massoneria, e, d’altro canto, sui riti del consenso, colti nelle rispettive tipicità locali. Un gioco di similitudini e di dissomiglianze, quindi. Circa gli obiettivi particolari – al di là della ricostruzione del “caso” Maroncelli -, ho cercato di sondare alcuni temi, proponendone una ricostruzione in primo luogo storiografica. Da un lato, il tema dell’esilio e del trapianto delle esperienze di vita e di relazione al di fuori del proprio contesto d’origine. Maroncelli utilizza, come strumento di identitario e di accreditamento, il fourierismo; la generazione appena successiva alla sua, grazie alla Giovine Italia, possiede già un codice interno, autoctono, cui fare riferimento; alla metà degli anni Cinquanta, ad esso si affiancherà, con successo crescente, la lettura “diplomatica” di ascendenza sabauda. Dall’altro, ho riflettuto sull’aspetto legato ai funerali politici, al cordoglio pubblico, al trasferimento postumo dei corpi. La letteratura disponibile, al riguardo, è assai ricca, e tale da consentire una precisa classificazione del “caso” Maroncelli all’interno di una tipologia della morte laica, ben delineata nell’Italia dell’Ottocento e del primo Novecento. E poi, ancora, ho preso in esame le dinamiche “festive” e di massa, approfondendo quelle legate al mondo dell’emigrazione italiana a Mew York, così distante nel 1886 dall’élite colta di quarant’anni prima, eppure così centrale per il controllo politico della città. Dinamiche alle quali fa da contrappunto, sul versante forlivese, la visione del mondo radicale e massonico locale, dominato dalla figura di Aurelio Saffi e dal suo tentativo di plasmare un’immagine morale e patriottica della città da lasciare ai posteri. Quasi un’ossessione, per il vecchio triumviro della Repubblica romana (morirà nel 1890), che interviene sulla toponomastica, sull’edilizia cemeteriale, sui pantheon civico, sui “ricordi” patriottici. Ho utilizzato fonti secondarie e di prima mano. Anche sulle prime, quantitativamente assai significative, mi sono misurata con un lavoro di composizione e di lettura comparata prima mai tentato. La giustapposizione di chiavi di lettura apparentemente distanti, ma giustificate dalla natura proteiforme e complicata del nostro “caso”, apre, a mio giudizio, interessanti prospettive di ricerca. Circa le fonti di prima mano, ho attinto ai fondi disponibili su Maroncelli presso la Biblioteca comunale di Forlì, alle raccolte del Grande Oriente d’Italia a Roma, a periodici italoamericani assai rari, sparsi in diverse biblioteche italiane, da Milano a Roma. Mi rendo conto che la quantità dei materiali reperiti, sovente molto eterogenei, avrebbero imposto una lettura delle fonti più accurata di quella che, in questa fase della ricerca, sono riuscita a condurre. E’ vero, però, che le suggestioni già recuperabili ad un’analisi mirata al contenuto principale – le feste, la propaganda, il cordoglio – consentono la tessitura di una narrazione non forzata, nella quale il ricordo della Repubblica romana viaggia da una sponda all’altra dell’Atlantica, insieme ai resti di Maroncelli; nella quale il rituale massonico funge da facilitatore e da “mediatore culturale”; nella quale, infine, il linguaggio patriottico e la koinè democratica trans-nazionale riescono incredibilmente a produrre o a incarnare identità. Per quanto tempo? La risposta, nel caso forlivese, è relativamente facile; in quello della “colonia” italiana di New York, presto alterata nella sua connotazione demografica dalla grande emigrazione transoceanica, le cose appaiono più complesse. E, tuttavia, nel 1911, cinquantesimo dell’Unità, qualcuno, nella grande metropoli americana, si sarebbe ricordato di Maroncelli, sia pure in un contesto e con finalità del tutto diverse rispetto al 1886: segno che qualcosa, sotto traccia, era sopravvissuto.
Resumo:
Il Web ha subito numerose trasformazioni rispetto al passato. Si è passati da un Web statico, in cui l'unica possibilità era quella di leggere i contenuti della pagina, ad un Web dinamico e interattivo come quello dei social network. Il Web moderno è, ancora oggi, un universo in espansione. La possibilità di arricchire le pagine con contenuti interattivi, video, foto e molto altro, rende l'esperienza web sempre più coinvolgente. Inoltre la diffusione sempre più ampia di mobile device ha reso necessaria l'introduzione di nuovi strumenti per sfruttare al meglio le funzionalità di tali dispositivi. Esistono al momento tantissimi linguaggi di scripting e di programmazione, ma anche CMS che offrono a chiunque la possibilità di scrivere e amministrare siti web. Nonostante le grandi potenzialità che offrono, spesso queste tecnologie si occupano di ambiti specifici e non permettono di creare sistemi omogenei che comprendano sia client che server. Dart si inserisce proprio in questo contesto. Tale linguaggio dà a i programmatori la possibilità di poter sviluppare sia lato client sia lato server. L'obiettivo principale di questo linguaggio è infatti la risoluzione di alcune problematiche comuni a molti programmatori web. Importante in questo senso è il fatto di rendere strutturata la costruzione di programmi web attraverso l'uso di interfacce e classi. Fornisce inoltre un supporto per l'integrazione di svariate funzionalità che allo stato attuale sono gestite da differenti tecnologie. L'obiettivo della presente tesi è quello di mettere a confronto Dart con alcune delle tecnologie più utilizzate al giorno d'oggi per la programmazione web-based. In particolare si prenderanno in considerazione JavaScript, jQuery, node.js e CoffeeScript.
Towards model driven software development for Arduino platforms: a DSL and automatic code generation
Resumo:
La tesi ha lo scopo di esplorare la produzione di sistemi software per Embedded Systems mediante l'utilizzo di tecniche relative al mondo del Model Driven Software Development. La fase più importante dello sviluppo sarà la definizione di un Meta-Modello che caratterizza i concetti fondamentali relativi agli embedded systems. Tale modello cercherà di astrarre dalla particolare piattaforma utilizzata ed individuare quali astrazioni caratterizzano il mondo degli embedded systems in generale. Tale meta-modello sarà quindi di tipo platform-independent. Per la generazione automatica di codice è stata adottata una piattaforma di riferimento, cioè Arduino. Arduino è un sistema embedded che si sta sempre più affermando perché coniuga un buon livello di performance ed un prezzo relativamente basso. Tale piattaforma permette lo sviluppo di sistemi special purpose che utilizzano sensori ed attuatori di vario genere, facilmente connessi ai pin messi a disposizione. Il meta-modello definito è un'istanza del meta-metamodello MOF, definito formalmente dall'organizzazione OMG. Questo permette allo sviluppatore di pensare ad un sistema sotto forma di modello, istanza del meta-modello definito. Un meta-modello può essere considerato anche come la sintassi astratta di un linguaggio, quindi può essere definito da un insieme di regole EBNF. La tecnologia utilizzata per la definizione del meta-modello è stata Xtext: un framework che permette la scrittura di regole EBNF e che genera automaticamente il modello Ecore associato al meta-modello definito. Ecore è l'implementazione di EMOF in ambiente Eclipse. Xtext genera inoltre dei plugin che permettono di avere un editor guidato dalla sintassi, definita nel meta-modello. La generazione automatica di codice è stata realizzata usando il linguaggio Xtend2. Tale linguaggio permette di esplorare l'Abstract Syntax Tree generato dalla traduzione del modello in Ecore e di generare tutti i file di codice necessari. Il codice generato fornisce praticamente tutta la schematic part dell'applicazione, mentre lascia all'application designer lo sviluppo della business logic. Dopo la definizione del meta-modello di un sistema embedded, il livello di astrazione è stato spostato più in alto, andando verso la definizione della parte di meta-modello relativa all'interazione di un sistema embedded con altri sistemi. Ci si è quindi spostati verso un ottica di Sistema, inteso come insieme di sistemi concentrati che interagiscono. Tale difinizione viene fatta dal punto di vista del sistema concentrato di cui si sta definendo il modello. Nella tesi viene inoltre introdotto un caso di studio che, anche se abbastanza semplice, fornisce un esempio ed un tutorial allo sviluppo di applicazioni mediante l'uso del meta-modello. Ci permette inoltre di notare come il compito dell'application designer diventi piuttosto semplice ed immediato, sempre se basato su una buona analisi del problema. I risultati ottenuti sono stati di buona qualità ed il meta-modello viene tradotto in codice che funziona correttamente.
Resumo:
Studio sulla ottimizzazione di placche mandibolari, utilizzate per ricostruzioni ossee, inclusivo di calcolo numerico, disegno ed analisi strutturali.
Resumo:
Lo stabilirsi di nuovi criteri abitativi nella Lombardia di fine Ottocento e dei primi decenni del XX secolo, ha fatto emergere, nel vasto tema dell’abitazione popolare, componenti meritevoli di essere analizzate nelle loro differenti declinazioni. Nella ricerca sono quindi stati analizzati: gli studi tipologici di quel periodo, l’impiego di differenti materiali edili, il linguaggio compositivo, le interrelazioni dei manufatti architettonici con il contesto urbano, l’apporto delle cooperative alla realizzazione degli interventi, lo sviluppo e l’impiego della prefabbricazione e la tutela, valorizzazione e trasformazione del patrimonio edilizio esistente. Presupposto di quest’analisi è stata l’ampia ricostruzione storiografica delle fasi germinali e del dibattito ottocentesco sulla casa operaia e popolare, che hanno condotto (all’inizio del novecento) alla creazione dell’Istituto Autonomo Case Popolari od Economiche di Milano. Sono state enucleate anche le principali caratteristiche formali e tecnologiche dell’edilizia residenziale popolare milanese di quel periodo. La ricerca inoltre è stata finalizzata alla definizione di strategie gestionali del patrimonio storiografico esistente (documentario, iconografico e bibliografico) rivolto a una migliore fruizione dei beni architettonici considerati e a supporto di conoscenza per la sua valorizzazione, tutela, trasformazione e recupero. Per questa ragione l’analisi delle fonti documentarie e archivistiche, si è basata sull’indagine di alcuni progetti originari (quasi mai in possesso dell’Aler e parzialmente dispersi in archivi comunali e privati). La ricostruzione del patrimonio storico-visuale dell’edilizia residenziale d’inizio secolo, ha dedicato attenzione anche agli aspetti architettonici e di vita degli spazi comuni, dello stato di conservazione e delle trasformazioni delle strutture originarie. Accanto a questi filoni di indagine è stata sviluppata un’attenta analisi della letteratura esistente, studiando sia la pubblicistica sia la letteratura scientifica coeva alle costruzione e gli studi, anche di grande portata, compiuti nei decenni successivi. L’indagine propone anche una periodizzazione delle fasi realizzative dell’edilizia popolare, relazionandole a contesti architettonici e storiografici di più ampio respiro. Si sono indagate, ad esempio, le ragioni del costituirsi di una forte interdipendenza delle varie realtà sociali urbane e si sono posti a confronto gli elementi prettamente architettonici con il quadro tematico connesso al concetto di modernità. La ricerca non ha neppure trascurato gli studi chiarificatori delle istanze sociali, che hanno trovato particolari riferimenti nelle analisi scientifiche (pubblicate su riviste specialistiche, in qualche caso di difficile reperibilità) o nelle ricerche commissionate dal Comune di Milano nel primo decennio del XX secolo. Grande importanza è stata riposta anche nell’analisi delle delibere comunali (verificate e documentate in modo organico e complessivo) che, a partire dal 1861, trattano il tema dell’impegno pubblico nella realizzazione di edilizia operaia a basso costo.
Resumo:
L’evoluzione dei sensori multispettrali e la prospettiva di sviluppo dei sensori iperspettrali nel campo del telerilevamento ottico offrono nuovi strumenti per l’indagine del territorio e rinnovano la necessità di ridefinire potenzialità, limiti e accuratezza delle metodologie tradizionali. Nel caso delle immagini iperspettrali, in particolare, l’elevatissima risoluzione spettrale apre nuove possibilità di sviluppo di modelli fisicamente basati per correlare grandezze radiometriche con indicatori fisico-chimici caratteristici delle superfici osservate, a prezzo però di maggiori oneri nella gestione del dato. Il presente lavoro mira appunto ad esaminare, per alcune applicazioni di carattere ambientale e attraverso casi di studio specifici, le criticità del problema del rilevamento da remoto nel suo complesso: dai problemi di correzione radiometrica delle immagini, all'acquisizione di dati di calibrazione sul campo, infine all'estrazione delle informazioni di interesse dal dato telerilevato. A tal fine sono stati sperimentati diversi modelli di trasferimento radiativo ed è stata sviluppata un’interfaccia per la gestione del modello 6SV. Per quest’ultimo sono state inoltre sviluppate routine specifiche per il supporto dei sensori Hyperion e World View 2. La ricerca svolta intende quindi offrire un contributo alla definizione di procedure operative ripetibili, per alcune applicazioni intimamente connesse all’indagine conoscitiva ed al monitoraggio dei processi in atto sul territorio. Nello specifico, si è scelto il caso di studio dell’oasi del Fayyum, in Egitto, per valutare il contenuto informativo delle immagini satellitari sotto tre diversi profili, soltanto in apparenza distinti: la classificazione della litologia superficiale, la valutazione dello stato di qualità delle acque ed il monitoraggio delle opere di bonifica. Trattandosi di un’oasi, le aree coltivate del Fayyum sono circondate dai suoli aridi del deserto libico. La mancanza di copertura vegetale rappresenta una condizione privilegiata per l’osservazione della litologia superficiale da remoto, auspicabile anche per la scarsa accessibilità di alcune aree. Il fabbisogno idrico dell’oasi è garantito dall’apporto di acque del fiume Nilo attraverso una rete di irrigazione che ha, come recettore finale, il lago Qarun, situato nella porzione più depressa dell’oasi. Questo lago, privo di emissari, soffre enormi problemi di salinizzazione, visto il clima iper-arido in cui si trova, e di inquinamento da fertilizzanti agricoli. Il problema della sostenibilità ambientale dello sfruttamento agricolo intensivo dell’oasi è un problema di deterioramento della qualità dell’acqua e della qualità dei suoli. È un problema che richiede una adeguata conoscenza del contesto geologico in cui questi terreni sono inseriti ed una capacità di monitoraggio degli interventi di bonifica ed estensione delle coltivazioni in atto; entrambe conoscenze necessarie alla definizione di un piano di sviluppo economico sostenibile. Con l’intento di contribuire ad una valutazione delle effettive potenzialità del telerilevamento come strumento di informazione territoriale, sono state sperimentate tecniche di classificazione di immagini multispettrali ASTER ed iperspettrali Hyperion di archivio per discriminare la litologia superficiale sulle aree adiacenti al lago Qarun nell’oasi del Fayyum. Le stesse immagini Hyperion di archivio più altre appositamente acquisite sono state utilizzate, assieme ad immagini multispettrali ALI, per la valutazione qualitativa e quantitativa di parametri di qualità delle acque, attraverso l’applicazione di modelli empirici di correlazione. Infine, per valutare l’ipotesi che il deterioramento della qualità delle acque possa essere correlato ai processi di bonifica ed estensione delle coltivazioni in atto negli ultimi decenni, le immagini dell’archivio Landsat sono state utilizzate per analisi di change detection. Per quanto riguarda il problema della validazione dei risultati, si è fatto uso di alcuni dati di verità a terra acquisiti nel corso di un survey preliminare effettuato nell’Ottobre 2010. I campioni di roccia prelevati e le misure di conducibilità elettrica delle acque del lago, benché in numero estremamente limitato per la brevità della missione e le ovvie difficoltà logistiche, consentono alcune valutazioni preliminari sui prodotti ottenuti dalle elaborazioni. Sui campioni di roccia e sabbie sciolte, in particolare, sono state effettuate misure di riflettività in laboratorio ed analisi mineralogiche dettagliate. Per la valutazione della qualità delle acque, più precisamente delle concentrazioni di clorofilla, la metodologia utilizzata per il caso di studio egiziano è stata applicata anche sul tratto costiero adriatico antistante le foci dei fiumi Tronto e Salinello. In questo sito sono state effettuate misure in situ di conducibilità elettrica ed il prelievo di campioni di acqua per la determinazione in laboratorio delle concentrazioni di clorofilla. I risultati ottenuti hanno evidenziato le potenzialità offerte dall’informazione spettrale contenuta nelle immagini satellitari e consentono l’individuazione di alcune pratiche operative. D’altro canto hanno anche messo in luce le carenze dei modelli attualmente esistenti, nonché le criticità legate alla correzione atmosferica delle grandezze radiometriche rilevate.