93 resultados para comunicazione
Resumo:
Il presente lavoro è strutturato in quattro parti analizzando e comparando le pubblicazioni del settore scientifico italiano, anglofono e tedesco di riferimento. Nel primo capitolo della tesi viene proposta una riflessione sulle parole che ruotano attorno al tema dei DSA e della disabilità. Nel secondo capitolo vengono presentati, a partire dalla letteratura scientifica di riferimento, gli indicatori di rischio che segnalano possibili disturbi specifici di apprendimento e le caratteristiche di apprendimento dei DSA mettendo in luce potenzialità e talenti spesso intrinseci. Nel terzo capitolo viene vagliata la normativa di riferimento, in particolare la recente Legge 170/2010 e le relative Linee Guida. Nel quarto capitolo, partendo dal tema della diffusione delle tecnologie dell’informazione e della comunicazione (da ora in poi TIC) nel mondo della scuola, sono ampiamente trattati i principali strumenti compensativi (sintesi vocale, libri digitali, mappe concettuali, Lavagna Interattiva Multimediale) e le misure dispensative adottabili. Nel quinto capitolo viene analizzato in tutte le sue parti il Piano Didattico Personalizzato (da ora in poi PDP) e viene proposto un possibile modello di PDP pubblicato sul sito dell'Ufficio per l’Ambito Territoriale di Bologna. Nel sesto capitolo della tesi viene presentato il Progetto Regionale ProDSA. Il Progetto, rivolto a studenti, con diagnosi di DSA, delle scuole secondarie di primo grado e del primo biennio delle secondarie di secondo grado dell’Emilia-Romagna, ha visto, grazie a un finanziamento della Regione, la consegna in comodato d'uso gratuito di tecnologie compensative agli alunni che hanno aderito. La sezione empirica del presente lavoro indaga l’uso reale che è stato fatto degli strumenti proposti in comodato d’uso e le motivazioni legate alla scelta di non utilizzarli in classe. Nel settimo capitolo vengono proposti strumenti progettati per rispondere concretamente alle criticità emerse dall'analisi dei dati e per sensibilizzare il mondo della scuola sulle caratteristiche dei DSA.
Resumo:
La città medievale di Leopoli-Cencelle (fondata da Papa Leone IV nell‘854 d.C. non lontano da Civitavecchia) è stata oggetto di studio e di periodiche campagne di scavo a partire dal 1994. Le stratigrafie investigate con metodi tradizionali, hanno portato alla luce le numerose trasformazioni che la città ha subìto nel corso della sua esistenza in vita. Case, torri, botteghe e strati di vissuto, sono stati interpretati sin dall’inizio dello scavo basandosi sulla documentazione tradizionale e bi-dimensionale, legata al dato cartaceo e al disegno. Il presente lavoro intende re-interpretare i dati di scavo con l’ausilio delle tecnologie digitali. Per il progetto sono stati utilizzati un laser scanner, tecniche di Computer Vision e modellazione 3D. I tre metodi sono stati combinati in modo da poter visualizzare tridimensionalmente gli edifici abitativi scavati, con la possibilità di sovrapporre semplici modelli 3D che permettano di formulare ipotesi differenti sulla forma e sull’uso degli spazi. Modellare spazio e tempo offrendo varie possibilità di scelta, permette di combinare i dati reali tridimensionali, acquisiti con un laser scanner, con semplici modelli filologici in 3D e offre l’opportunità di valutare diverse possibili interpretazioni delle caratteristiche dell’edificio in base agli spazi, ai materiali, alle tecniche costruttive. Lo scopo del progetto è andare oltre la Realtà Virtuale, con la possibilità di analizzare i resti e di re-interpretare la funzione di un edificio, sia in fase di scavo che a scavo concluso. Dal punto di vista della ricerca, la possibilità di visualizzare le ipotesi sul campo favorisce una comprensione più profonda del contesto archeologico. Un secondo obiettivo è la comunicazione a un pubblico di “non-archeologi”. Si vuole offrire a normali visitatori la possibilità di comprendere e sperimentare il processo interpretativo, fornendo loro qualcosa in più rispetto a una sola ipotesi definitiva.
Resumo:
La ricerca pone al centro dell’indagine lo studio dell’importanza del cibo nelle cerimonie nuziali dell’Europa occidentale nei secoli V-XI. Il corpus di fonti utilizzate comprende testi di genere diverso: cronache, annali, agiografie, testi legislativi, a cui si è aggiunta un’approfondita analisi delle antiche saghe islandesi. Dopo un'introduzione dedicata in particolare alla questione della pubblicità della celebrazione, la ricerca si muove verso lo studio del matrimonio come “processo” sulla base della ritualità alimentare: i brindisi e i banchetti con cui si sigla l’accordo di fidanzamento e i ripetuti convivi allestiti per celebrare le nozze. Si pone attenzione anche ad alcuni aspetti trasversali, come lo studio del caso della “letteratura del fidanzamento bevuto”, ossia una tradizione di testi letterari in cui il fidanzamento tra i protagonisti viene sempre ratificato con un brindisi; a questo si aggiunge un’analisi di stampo antropologico della "cultura dell’eccesso", tipica dei rituali alimentari nuziali nel Medioevo, in contrasto con la contemporanea "cultura del risparmio". L'analisi si concentra anche sulle reiterate proibizioni al clero, da parte della Chiesa, di partecipare a banchetti e feste nuziali, tratto comune di tutta l’epoca altomedievale. Infine, la parte conclusiva della ricerca è incentrata sulla ricezione altomedievale di due figure bibliche che pongono al centro della narrazione un banchetto nuziale: la parabola delle nozze e il banchetto di Cana. L’insistente presenza di questi due brani nelle parole dei commentatori biblici mostra la straordinaria efficacia del “linguaggio alimentare”, ossia di un codice linguistico basato sul cibo (e su contesti quali l’agricoltura, la pesca, ecc.) come strumento di comunicazione sociale di massa con una valenza antropologica essenzialmente universale.
Resumo:
Modern embedded systems embrace many-core shared-memory designs. Due to constrained power and area budgets, most of them feature software-managed scratchpad memories instead of data caches to increase the data locality. It is therefore programmers’ responsibility to explicitly manage the memory transfers, and this make programming these platform cumbersome. Moreover, complex modern applications must be adequately parallelized before they can the parallel potential of the platform into actual performance. To support this, programming languages were proposed, which work at a high level of abstraction, and rely on a runtime whose cost hinders performance, especially in embedded systems, where resources and power budget are constrained. This dissertation explores the applicability of the shared-memory paradigm on modern many-core systems, focusing on the ease-of-programming. It focuses on OpenMP, the de-facto standard for shared memory programming. In a first part, the cost of algorithms for synchronization and data partitioning are analyzed, and they are adapted to modern embedded many-cores. Then, the original design of an OpenMP runtime library is presented, which supports complex forms of parallelism such as multi-level and irregular parallelism. In the second part of the thesis, the focus is on heterogeneous systems, where hardware accelerators are coupled to (many-)cores to implement key functional kernels with orders-of-magnitude of speedup and energy efficiency compared to the “pure software” version. However, three main issues rise, namely i) platform design complexity, ii) architectural scalability and iii) programmability. To tackle them, a template for a generic hardware processing unit (HWPU) is proposed, which share the memory banks with cores, and the template for a scalable architecture is shown, which integrates them through the shared-memory system. Then, a full software stack and toolchain are developed to support platform design and to let programmers exploiting the accelerators of the platform. The OpenMP frontend is extended to interact with it.
Resumo:
La ricerca sviluppa le più recenti proposte teoriche dell'antropologia interpretativa, applicandole alla teoria della letteratura. Si concentra sull'ipotesto antropologico attivo nell'opera di Elsa Morante, con particolare riferimento alla produzione successiva agli anni Sessanta (Il mondo salvato dai ragazzini, 1968; La Storia, 1974; Aracoeli, 1982), in cui si verifica la concentrazione del materiale etno-antropologico di derivazione demartiniana. La tesi si propone di sondare la prolificità del rapporto intertestuale Morante-De Martino, soprattutto mediante la ricorrenza di alcuni luoghi significanti che accomunano la ricerca poetica e quella scientifica degli autori, uniti da una fondamentale rielaborazione del concetto di "umanesimo". Centrale, a questo proposito, diviene la nozione di "crisi" della persona, direttamente collegata al vissuto da "fine del mondo" e alla percezione apocalittica post-atomica. Alla crisi del soggetto contemporaneo si guarda nei termini di una risoluzione culturale, che chiama direttamente in causa il rapporto tra letteratura e ritualità. Secondo la prospettiva sociologica durkheimiana, si indagano i momenti della piacularità e della festa, ricorsivi nella scrittura morantiana, come fondanti il discorso (la narrazione mitografica) della comunità. Di qui, la riflessione si attesta sulle strategie della comunicazione finzionale in ambito etno-antropologico, con attenzione all'autorialità dello stesso antropologo sul campo. Non mancano raffronti con le esperienze letterarie più significative nell'orizzonte culturale delineato: in particolar modo, si tiene in considerazione il fondamentale rapporto Morante-Pasolini.
Resumo:
This thesis aimed at addressing some of the issues that, at the state of the art, avoid the P300-based brain computer interface (BCI) systems to move from research laboratories to end users’ home. An innovative asynchronous classifier has been defined and validated. It relies on the introduction of a set of thresholds in the classifier, and such thresholds have been assessed considering the distributions of score values relating to target, non-target stimuli and epochs of voluntary no-control. With the asynchronous classifier, a P300-based BCI system can adapt its speed to the current state of the user and can automatically suspend the control when the user diverts his attention from the stimulation interface. Since EEG signals are non-stationary and show inherent variability, in order to make long-term use of BCI possible, it is important to track changes in ongoing EEG activity and to adapt BCI model parameters accordingly. To this aim, the asynchronous classifier has been subsequently improved by introducing a self-calibration algorithm for the continuous and unsupervised recalibration of the subjective control parameters. Finally an index for the online monitoring of the EEG quality has been defined and validated in order to detect potential problems and system failures. This thesis ends with the description of a translational work involving end users (people with amyotrophic lateral sclerosis-ALS). Focusing on the concepts of the user centered design approach, the phases relating to the design, the development and the validation of an innovative assistive device have been described. The proposed assistive technology (AT) has been specifically designed to meet the needs of people with ALS during the different phases of the disease (i.e. the degree of motor abilities impairment). Indeed, the AT can be accessed with several input devices either conventional (mouse, touchscreen) or alterative (switches, headtracker) up to a P300-based BCI.
Resumo:
La presente tesi ha come scopo quello di individuare alcune problematiche relative all’esercizio e alla limitazione del diritto alla libertà di espressione nel contesto delle attività globali di sorveglianza e controllo delle tecnologie dell’informazione e della comunicazione. Tali attività, poste in essere da parte degli Stati e da parte degli operatori privati, sono favorite dal nebuloso rapporto tra norme di fonte pubblica, privata e informatica, e sono invece osteggiate dal ricorso, collettivo e individuale, alle possibilità offerte dalle tecnologie stesse per la conduzione di attività in anonimato e segretezza. La sorveglianza globale nel contesto delle privatizzazioni si serve del codice e dell’autonomia privata, così come la resistenza digitale ricorre alle competenze informatiche e agli spazi di autonomia d’azione dell’individuo. In questo contesto, la garanzia dell’esistenza e dell’esercizio dei diritti fondamentali dell’individuo, tra tutti il diritto alla libertà di espressione e il diritto alla tutela della riservatezza, passa per l’adozione di tecniche e pratiche di autotutela attraverso l’utilizzo di sistemi di cifratura e comunicazioni anonime. L’individuo, in questo conflitto tecnico e sociale, si trova a dover difendere l’esercizio dei propri diritti e finanche l’adempimento ai propri doveri, quando attinenti a particolari figure professionali o sociali, quali avvocati, operatori di giustizia, giornalisti, o anche semplicemente genitori. In conclusione dell’elaborato si propongono alcune riflessioni sulla formazione della cittadinanza e del mondo professionale, da parte dei giuristi delle nuove tecnologie, all’uso cosciente, consapevole e responsabile delle nuove tecnologie dell’informazione, con lo stimolo ad orientare altresì le proprie attività alla tutela e alla promozione dei diritti umani fondamentali, democratici, costituzionali, civili e sociali.
Resumo:
La tesi di Dottorato, saldamente ancorata alle Medical Humanities, si è concentrata sul modo in cui la storia della letteratura italiana si intreccia con le altre discipline, per arrivare a configurare quell’ampio panorama di storia delle idee che aiuta a valutare l’evoluzione stessa delle credenze e dei pensieri dell’uomo nel corso del tempo. Essa ha contribuito a portare alla luce l’apporto dato dalla Società Medica Chirurgica di Bologna in Epoca Pontificia alla circolarità del pensiero medico, ricordando con forza che le varie correnti storico-mediche non sono appunto il semplice susseguirsi di teorie più o meno esatte. La tesi rende pienamente visibili non solo la struttura e le dinamiche della comunicazione scientifica, ma documenta attraverso la letteratura (anche quella scientifica) la presenza della medicina e delle sue pratiche all’interno della società, soffermandosi sui meccanismi, sui percorsi che legano i fenomeni tra loro; viene declinato anche il complesso e travagliato processo teso a ridefinire la figura del medico durante l’epoca del dominio pontificio nel suo declino, circondata da diffidenze e ostilità. Il fulcro della tesi è dato dalla dimostrazione inconfutabile che esiste ancora un ruolo per la cultura umanistica nella formazione del medico.
Resumo:
La ricerca si propone di sondare in maniera completa e approfondita la rappresentazione del banchetto nel testo letterario e, in senso più ampio, nel testo inteso come sistema di segni (siano essi parole, gesti, espressioni facciali, modi di esprimersi, mezzi di comunicazione in genere). Il banchetto è una ‘messa in scena’ che assume nel testo letterario e nei linguaggi espressivi dell’arte contemporanea diverse funzioni a livello tematico e stilistico. Nel lavoro si analizza ognuna di queste funzioni: la funzione denotativa, connotativa, strutturale, metaforica, metanarrativa e stilistica e comunicativa. La linea di analisi tracciata si conclude con un particolare focus sulla rappresentazione del banchetto nel testo letterario e nei media come strumento di comunicazione all’interno di un altro mezzo di comunicazione. Con questa premessa la candidata termina con il capitolo conclusivo dedicando spazio all’immagine del pasto postmoderno. Il banchetto, in quanto rito simbolico, media contenuti legati all’universo culturale, rivela connessioni con la realtà storico-sociale, con l’assetto profondo dell’identità individuale e collettiva, costituendo un polo di aggregazione di diverse dimensioni di umanità. Nonostante l’estrema duttilità alla quale si presta l’immaginario del banchetto sul piano artistico e concettuale, nella quotidianità il momento conviviale continua per l’uomo postmoderno a evocare sentimenti e valori tradizionali ai quali ispirarsi.
Resumo:
L’aumento esponenziale del contenzioso medico-legale – originatosi negli USA negli anni Sessanta in proporzioni tali da far parlare di medical liability crisis, e sviluppatosi in Italia a partire dalla metà degli anni Ottanta – ha comportato e continua a comportare, unitamente ad altre conseguenze negative, il ricorso sempre più frequente dei sanitari alle pratiche di medicina difensiva, con elevatissimi costi a carico del Servizio Sanitario Nazionale dovuti alla sovrabbondanza di trattamenti e ricoveri inutili e di procedure diagnostiche invasive non necessarie, peraltro produttive di stress emotivo nei pazienti. La causa dell’aumento della litigiosità deve essere ricercata in buona parte nella relazione medico-paziente, in particolar modo con riferimento al momento informativo che precede l’acquisizione del consenso informato al trattamento clinico. In Italia, i limiti che per lo più caratterizzano gli studi riguardanti il consenso informato derivano principalmente dal fatto che essi tendono a focalizzarsi unicamente sulla componente scritta del medesimo. Il fulcro del consenso informato, invece, deve ritenersi rappresentato da una comunicazione tra sanitario e paziente relativa ad un trattamento proposto ed alle possibili alternative, alla non sottoposizione ad alcun trattamento e ai rischi e benefici di ciascuna di queste opzioni. In un tale contesto il tema della comunicazione tra il professionista e la persona assistita sta suscitando interesse poiché ci si aspetta che esso conduca a miglioramenti degli outcome dei pazienti e alla diminuzione delle denunce da parte di questi ultimi per casi di responsabilità sanitaria. La maggiore attenzione al rapporto medico - paziente ha fatto emergere il bisogno di migliorare e potenziare le abilità comunicative dei medici, in un’ottica in cui il momento comunicativo possa essere percepito dal professionista come fulcro del rapporto medico-paziente, nella prospettiva di una elaborazione di strategie di prevenzione e contrasto ai fenomeni di medicina difensiva.
Resumo:
La nascita dell’interpretazione di conferenza è strettamente legata a storici incontri diplomatici e ai congressi di istituzioni internazionali di grande rilievo. Tuttavia, oggi, nell’epoca della globalizzazione, ci si riunisce sempre più per la condivisione di conoscenze e per motivi personali, anche in contesti meno formalizzati. Sebbene, in quanto conferenza, le norme interazionali continuino a vincolare il meccanismo dei turni di parola, in tali circostanze tra l’oratore e chi lo ascolta si instaurano maggiore sintonia e attenzione reciproca attraverso molteplici mezzi comunicativi, verbali e non-verbali. Il presente studio, posizionandosi nella prospettiva dell’analisi discorsiva e della comunicazione multimodale, ha come obiettivo quello di verificare se la presenza dell’interprete modifichi la relazione interpersonale caratterizzata dal senso di reciprocità tra chi enuncia e chi ascolta, e se sì, quali siano le nuove dinamiche comunicative che emergono. A tal fine, sono stati reperiti filmati di nove conferenze con minor grado di formalità dove era previsto lo svolgimento dell’interpretazione consecutiva tra l’italiano e il cinese e, relativamente a questi, sono state eseguite dapprima due fasi di valutazione preliminare: la prima prevedeva la raccolta e l’analisi delle informazioni di base riguardanti lo svolgimento dei nove eventi e i relativi partecipanti; la seconda consisteva nell’esame contrastivo tra i sistemi linguistico-culturali italiano e cinese. In seguito all’acquisizione delle informazioni contestuali e circostanziali, si è proceduto all’analisi qualitativa dei casi di studio di interazione tra l’interprete e gli altri partecipanti. A tal fine, soni stati esaminati non solo gli interventi linguistici, ma anche le attività non-verbali. Nonostante la molteplicità delle dinamiche osservate, è stato possibile riconoscere una tendenza secondo cui l’interprete stabilisce relazioni di carattere dialogico sia con i partecipanti presenti sul palco, ovvero l’oratore e il moderatore, che con il pubblico presente agli eventi analizzati.
Resumo:
Il progetto ANTE riguarda i nuovi sistemi di traduzione automatica (TA) e la loro applicazione nel mondo delle imprese. Lo studio prende spunto dai recenti sviluppi legati all’intelligenza artificiale e ai Big Data che negli ultimi anni hanno permesso alla TA di raggiungere livelli qualitativi molto elevati, al punto tale da essere impiegata da grandi multinazionali per raggiungere nuove quote di mercato. La TA può rispondere positivamente anche ai bisogni delle imprese di piccole dimensioni e a basso tenore tecnologico, migliorando la qualità delle comunicazioni multilingue attraverso delle traduzioni in tempi brevi e a costi contenuti. Lo studio si propone quindi di contribuire al rafforzamento della competitività internazionale delle piccole e medie imprese (PMI) emiliano- romagnole, migliorando la loro capacità di comunicazione in una o più lingue straniere attraverso l’introduzione e l’utilizzo efficace e consapevole di soluzioni ICT di ultima generazione e fornire, così, nuove opportunità di internazionalizzazione.
Resumo:
Il termine go-tv fa riferimento a i sistemi di videocomunicazione collocati a bordo di mezzi di trasporto e in ambienti collegati, ad alto transito di passeggeri. Limitando l’analisi al territorio italiano, la ricerca intende ricostruire le coordinate storiche del suo sviluppo, inquadrandolo entro il più ampio contesto dei media contemporanei. Da un punto di vista teorico, sono considerati sia il legame del mezzo con l’ambiente urbano, sia le interconnessioni tra comunicazione, mobilità e trasporti, riflesse nel particolare statuto sociale e topologico chiamato in causa dai suoi luoghi di consumo. Dall’approvvigionamento alla messa in onda dei contenuti, cardine speculativo del lavoro è la disamina, su base esplorativa, delle consuetudini commerciali e professionali sottese a questo speciale canale di distribuzione audiovisiva, nel quadro di apposite pratiche d’azienda, campionate nel solco degli studi sulla produzione mediale. Tre sono gli snodi principali del progetto: la proposta di una definizione univoca del fenomeno, condivisibile dai diversi attori coinvolti nella filiera, una prima modellizzazione del suo profilo mediale e una mappatura dei principali casi di go-tv rinvenibili a livello nazionale, arricchita da una serie di studi di caso.
Resumo:
Allostery is a phenomenon of fundamental importance in biology, allowing regulation of function and dynamic adaptability of enzymes and proteins. Despite the allosteric effect was first observed more than a century ago allostery remains a biophysical enigma, defined as the “second secret of life”. The challenge is mainly associated to the rather complex nature of the allosteric mechanisms, which manifests itself as the alteration of the biological function of a protein/enzyme (e.g. ligand/substrate binding at the active site) by binding of “other object” (“allos stereos” in Greek) at a site distant (> 1 nanometer) from the active site, namely the effector site. Thus, at the heart of allostery there is signal propagation from the effector to the active site through a dense protein matrix, with a fundamental challenge being represented by the elucidation of the physico-chemical interactions between amino acid residues allowing communicatio n between the two binding sites, i.e. the “allosteric pathways”. Here, we propose a multidisciplinary approach based on a combination of computational chemistry, involving molecular dynamics simulations of protein motions, (bio)physical analysis of allosteric systems, including multiple sequence alignments of known allosteric systems, and mathematical tools based on graph theory and machine learning that can greatly help understanding the complexity of dynamical interactions involved in the different allosteric systems. The project aims at developing robust and fast tools to identify unknown allosteric pathways. The characterization and predictions of such allosteric spots could elucidate and fully exploit the power of allosteric modulation in enzymes and DNA-protein complexes, with great potential applications in enzyme engineering and drug discovery.
Resumo:
La Policitemia Vera (PV) è una neoplasia mieloproliferativa con un aumentato rischio di trombosi e di progressione verso la Mielofibrosi. L'infiammazione cronica è comunemente osservata nelle neoplasie mieloproliferative, compresa la PV. La rete infiammatoria, tra le varie componenti, comprende le vescicole extracellulari (EVs), che svolgono un ruolo nella comunicazione cellula-cellula. Inoltre, le componenti microbiche circolanti sono state recentemente indicate come potenziali modificatori dell'infiammazione, della coagulazione e dell’emopoiesi in generale. Qui abbiamo studiato il DNA microbico delle EVs circolanti attraverso. Sangue periferico e feci sono stati raccolti da pazienti con PV (n=38) e da donatori sani (n=30). Le EVs circolanti derivate da megacariociti (MK) e piastrine (PLT) sono state analizzate mediante citometria a flusso. Dopo l'estrazione del DNA microbico dalle feci e dalle EV isolate, è stata sequenziata la regione V3-V4 del 16S rDNA. La percentuale di EVs di MK era ridotta nei pazienti con PV rispetto ai donatori sani. Al contrario, la proporzione di EVs di PLT era aumentata. La PV è stata associata anche a una firma del DNA microbico delle EVs isolate con una maggiore diversità e una composizione microbica distinta rispetto alla controparte sana. Nei pazienti con PV c’è una maggiore proporzione di EVs associate al lipopolisaccaride. Il profilo del microbioma intestinale non differiva tra PV e doantori. Inoltre, l'aumento della proporzione di EVs di MK e la riduzione di EVs di piastre identificavano i pazienti con pregressa trombosi. Le EVs dei pazienti con trombosi erano impoverite di DNA di Staphylococcus ma arricchite di DNA di Actinobacteria e Anaerococcus. Inoltre, questi pazienti avevano livelli più bassi di EVs associate al lipopolisaccaride. I pazienti con fibrosi midollare avevano una maggiore proporzione di PE-EV ed erano arricchite in DNA di Collinsella e Flavobacterium. Questi dati possono contribuire a perfezionare la prognosi della PV e a identificare nuovi bersagli farmacologici.