446 resultados para polinomi trasposizione didattica definizione schemi di definizione
Resumo:
Il lavoro nasce dall'esigenza di comprendere quali sono gli ostacoli concettuali e metodologici che gli studenti della scuola secondaria di secondo grado incontrano nello studio delle dimostrazioni. Tale lavoro è in parte dedicato alla descrizione, mediante la proposizione di ragionamenti scorretti, delle tipologie più diffuse di errori commessi nel condurre una dimostrazione, partendo dall'esplicitazione dei requisiti necessari della stessa in contesto logico. La realizzazione di un’esperienza didattica rivolta a studenti delle classi seconde, ha permesso di concretizzare le ipotesi avanzate durante la fase descrittiva. In particolare ha favorito l’individuazione di ulteriori spunti di riflessione su come condurre lo studio delle dimostrazioni e ha messo in evidenza come un’analisi che prescinde dal piano epistemologico risulta fuorviante e inappropriata.
Resumo:
Il teorema di Chevalley-Shephard-Todd è un importante risultato del 1954/1955 nella teoria degli invarianti polinomiali sotto l'azione del gruppo delle matrici invertibili. Lo scopo di questa tesi è presentare e dimostrare il teorema nella versione in cui l'anello dei polinomi ha come campo base R e di vedere alcuni esempi concreti di applicazione del teorema. Questa dimostrazione può essere generalizzata facilmente avendo come campo base un qualsiasi campo K di caratteristica 0.
Resumo:
Lo scopo di questa tesi è quello di presentare un fenomeno sociolinguistico che sta coinvolgendo sempre di più le generazioni d’oggi: il “politically correct”. A partire dalle sue origine americane, il “politically correct” viene qui analizzato in un contesto specifico: quello della Francia degli ultimi anni. Si è cercato di adottare un metodo più pragmatico possibile per accompagnare alla sua definizione e alla sua evoluzione esempi pratici e concreti, a partire dalle somiglianze riscontrate con la “langue de bois”, il linguaggio per eccellenza dei politici, così come viene definito in Francia, il concetto di taboo e i modi in cui si forma questo linguaggio attraverso figure retoriche e sigle. Ci si è concentrati quindi sull’affermazione del “politically correct” nei media, mostrando degli esempi presi da quotidiani francesi circa un fatto che ha sconvolto la Francia e il mondo intero: Charlie Hebdo e gli attacchi terroristici. In questo modo si è potuto affrontare la tematica del razzismo, il tema scelto per analizzare da un punto di vista specifico questo fenomeno sociolinguistico. Si è cercato di mostrare quindi il legame fra questa tematica e il “politically corrrect” analizzando dapprima la crescente paura nei confronti di tutta la comunità musulmana, attraverso l’analisi di parole ed espressioni “politically correct” presenti ormai negli articoli dei giornali francesi, per poi concludere con un’analisi di due libri “Parlez-vous le politiquement correct” di Georges Lebouc e “Mots et culture dans tous les sens. Initiation à la lexiculture pour italophones” e delle espressioni proposte sulla tematica del razzismo e della xenofobia, mostrando attraverso una tabella il cambiamento che hanno subito queste parole rispetto alla lingua originaria.
Resumo:
L'idea di questo studio nasce dalla volontà di capire quali sono le competenze necessarie affinché un interprete riesca a comunicare in modo efficace. In particolare, abbiamo voluto effettuare un'analisi delle competenze comunicative degli interpreti nella loro lingua madre (in questo caso, l'italiano), poiché spesso questa competenza viene data per scontata, per il semplice fatto che si tratta della lingua parlata sin dall'infanzia. Per raggiungere questo obiettivo abbiamo trascritto e analizzato 20 interpretazioni consecutive, realizzate dagli studenti del DIT (Dipartimento di Interpretazione e Traduzione) di Forlì, durante gli esami finali che hanno avuto luogo tra il 2009 e il 2014. Il presente elaborato è suddiviso in quattro capitoli: nel primo capitolo, di natura teorica, proporremo una definizione del concetto di competenza comunicativa, che sarà divisa a sua volta in competenza linguistica, pragmatica e socio-pragmatica. Successivamente, metteremo in rilievo le altre competenze che un interprete di conferenza professionista dovrebbe avere. Il secondo capitolo sarà invece dedicato alla descrizione del concetto di qualità in interpretazione, principio estremamente importante per capire quali caratteristiche deve soddisfare il discorso prodotto da un interprete. Nel terzo capitolo, di natura pratica, presenteremo la modalità di raccolta dei dati e il risultato dell'analisi delle interpretazioni consecutive trascritte; mettendo in risalto alcune problematiche a livello comunicativo come interferenze linguistiche, calchi, problemi a livello lessicale, morfosintattico, incoerenze e omissioni. Infine, nel quarto capitolo proporremo alcune considerazioni conclusive sui temi trattati nei capitoli precedenti.
Resumo:
L’elaborato presenta una ricerca di tipo bibliografico su una serie di articoli estratti da riviste ed archivi elettronici dedicati alla traduzione, interpretazione, comunicazione, e linguistica. La ricerca vuole descrivere lo stato degli studi e delle ricerche relative alle espressioni fisse e a tutte le sottocategorie che vi appartengono: non esiste infatti un accordo unanime circa la loro definizione, classificazione ed uso all’interno della lingua. Il motivo principale che ha portato alla sua realizzazione è il fatto che le espressioni fisse sono fortemente presenti nel linguaggio quotidiano, e si tratta di segmenti composti da più parole che si presentano come un’unica unità di significato culturalmente connotate. Gli obiettivi consistono nel verificare, in primo luogo, se si fosse raggiunto un accordo circa la definizione e categorizzazione delle espressioni fisse; in secondo luogo, elencare le problematiche principali che implica la traduzione o interpretazione di un’espressione fissa; ed in terzo luogo individuare eventuali strategie o suggerimenti proposti dagli studiosi, anche in vista della formazione di traduttori ed interpreti. La prima parte dell’elaborato fornisce un inquadramento teorico dedicato alla definizione delle espressioni fisse e dei concetti di cultura e di intraducibilità. La seconda parte include la ricerca bibliografica vera e propria, e la terza parte propone: in primo luogo, alcune categorizzazioni possibili per descrivere gli articoli trovati; in secondo luogo analizza i problemi evidenziati dagli autori; ed in terzo luogo riassume le strategie e soluzioni elaborate dai diversi studiosi per agevolare traduttori e interpreti (professionisti o in formazione) nella traduzione delle espressioni fisse da una lingua-cultura a un’altra.
Resumo:
Wanderlust, tradotto in italiano con il titolo Giramondo, è uno dei romanzi della famosa autrice americana Danielle Steel nel quale viene raccontata la storia di una giovane donna che decide di seguire il suo forte impulso di viaggiare e di partire per un viaggio oltre oceano. Wanderlust, parola di origine tedesca, oggi significa “forte desiderio o impulso a viaggiare”(Duden Wörterbuch:online) e deriva dal verbo tedesco wandern. Il verbo wandern ha in Germania un importante ruolo sia a livello storico-politico che culturale, tale da rendere difficile la ricerca di un termine equivalente nelle altre lingue, italiano compreso. Il termine, figlio dell’epoca illuminista e romantica indicava in origine un’attività che implicava un “andare a piedi nella natura” ed era “simbolo di un nuovo rapporto dell’individuo con la natura” (Dizionario Zanichelli Tedesco-Italiano). Il Wandern, sviluppatosi nel tempo in ambito politico e soprattutto formativo, contiene nella sua definizione più antica elementi importanti come l’incontro con ciò che è sconosciuto, il rapporto tra corpo anima e natura, la formazione attraverso l’esperienza pratica e il viaggiare inteso come un camminare senza una meta. La Wanderlust dovrebbe quindi essere definita come un forte desiderio o impulso a vagare per imparare, per andare incontro a ciò che è sconosciuto ma, così come il verbo wandern, ha acquistato in uso moderno il significato di viaggiare come attività del tempo libero ed è spesso collegato a situazioni di svago e relax quali le vacanze.
Resumo:
La Flipped Classroom è una metodologia didattica innovativa che prevede una inversione dei momenti classici delle didattica: la lezione frontale a scuola e lo studio individuale a casa. L’idea alla base della Flipped Classroom è utilizzare la tecnologia moderna per diffondere i contenuti fuori dall’orario scolastico così da concentrare poi le ore di lezione sull’elaborazione dei contenuti stessi. In questo modo si riporta l’attenzione didattica sull’elaborazione dei contenuti piuttosto che sul loro ascolto passivo. A seguito dello studio teorico del metodo Flipped ho fatto una esperienza di tirocinio presso una classe terza della Scuola secondaria di primo grado "`Il Guercino"' dell'IC9, in collaborazione con la professoressa Leone, per applicare questa metodologia didattica. Una volta in classe, io e la professoressa, abbiamo considerato più efficace e utile, per gli studenti con cui lavoravamo, fare propedeutica piuttosto che Flipped Classroom. L’esperienza di tirocinio è stata conclusa con un questionario per valutare l’utilizzo, da parte dei nostri studenti, della piattaforma didattica Moodle, in uso nella scuola. I risultati dell’analisi delle risposte è stato conforme a quanto da noi atteso: data l’età i nostri studenti non avevano il giusto grado di autonomia per lavorare con la metodologia della Flipped Classroom.
Resumo:
La capacità di estrarre entità da testi, collegarle tra loro ed eliminare possibili ambiguità tra di esse è uno degli obiettivi del Web Semantico. Chiamato anche Web 3.0, esso presenta numerose innovazioni volte ad arricchire il Web con dati strutturati comprensibili sia dagli umani che dai calcolatori. Nel reperimento di questi temini e nella definizione delle entities è di fondamentale importanza la loro univocità. Il nostro orizzonte di lavoro è quello delle università italiane e le entities che vogliamo estrarre, collegare e rendere univoche sono nomi di professori italiani. L’insieme di informazioni di partenza, per sua natura, vede la presenza di ambiguità. Attenendoci il più possibile alla sua semantica, abbiamo studiato questi dati ed abbiamo risolto le collisioni presenti sui nomi dei professori. Arald, la nostra architettura software per il Web Semantico, estrae entità e le collega, ma soprattutto risolve ambiguità e omonimie tra i professori delle università italiane. Per farlo si appoggia alla semantica dei loro lavori accademici e alla rete di coautori desumibile dagli articoli da loro pubblicati, rappresentati tramite un data cluster. In questo docu delle università italiane e le entities che vogliamo estrarre, collegare e rendere univoche sono nomi di professori italiani. Partendo da un insieme di informazioni che, per sua natura, vede la presenza di ambiguità, lo abbiamo studiato attenendoci il più possibile alla sua semantica, ed abbiamo risolto le collisioni che accadevano sui nomi dei professori. Arald, la nostra architettura software per il Web Semantico, estrae entità, le collega, ma soprattutto risolve ambiguità e omonimie tra i professori delle università italiane. Per farlo si appoggia alla semantica dei loro lavori accademici e alla rete di coautori desumibile dagli articoli da loro pubblicati tramite la costruzione di un data cluster.
Resumo:
Lo scopo di questa tesi è lo sviluppo di un’interfaccia Web per un software di ottimizzazione, il cui scopo è la definizione dell’orario delle lezioni universitarie. Presenteremo il modello risolutivo al problema del timetabling proposto da Daskalaki et alii, e lo adatteremo alle esigenze della facoltà di Informatica dell’Università di Bologna. In effetti, la necessità di costituire un software atto alla risoluzione del problema dell’orario universitario rappresenta il tema principale trattato in questa tesi, che si ripropone, oltretutto, la costruzione di un’interfaccia grafica accattivante e intuitiva, che possa agevolmente essere utilizzata da docenti e personale di segreteria.
Resumo:
Questo elaborato nasce da un interesse personale, quello per il romanzo Educazione Siberiana e per l'autore Nicolai Lilin. Da qui è nata un'idea di analisi del romanzo da un punto di vista culturale e traduttologico, nonostante l'opera sia scritta in italiano. Il titolo dell'elaborato descrive la traduzione come lettura ideale: il traduttore, come figura che si pone tra due lingue e due culture, rappresenta infatti il lettore ideale di un'opera tradotta, poiché ha a disposizione le conoscenze della cultura di partenza e di quella di arrivo. Per questo motivo, è attraverso il suo lavoro che tale opera può essere trasmessa ad un lettore medio. Il lettore medio potenzialmente può non conoscere nulla della lingua e della cultura originaria. Come "russista" e studentessa di traduzione, madrelingua italiana, mi sono posta nella posizione di lettrice ideale, che dispone di un bagaglio culturale che va oltre la cultura che si acquisisce in base alle proprie origini. L'obiettivo di questa tesi è perciò quello di effettuare una rilettura del romanzo attraverso i realia, cioè termini e concetti che fanno riferimento ad aspetti propri di una cultura, in questo caso quella russa, per i quali spesso non esiste una traduzione ufficiale e che prevedono, da parte del traduttore, una grande conoscenza della cultura di partenza. Tuttavia mentre il lettore medio critica la veridicità dei racconti crudi e spesso violenti presenti nel romanzo, il traduttore-lettore ideale si rende conto di come alcuni realia della cultura russa siano stati riportati in maniera imprecisa nella lingua italiana. Si analizzeranno quindi i realia trattati in maniera imprecisa, i realia che funzionano e i linguaggi culturali dell'opera a partire dall'articolo di presentazione del romanzo e la sua trasposizione cinematografica.
Resumo:
Nel presente lavoro di tesi ho sviluppato un metodo di analisi di dati di DW-MRI (Diffusion-Weighted Magnetic Resonance Imaging)cerebrale, tramite un algoritmo di trattografia, per la ricostruzione del tratto corticospinale, in un campione di 25 volontari sani. Il diffusion tensor imaging (DTI) sfrutta la capacità del tensore di diffusione D di misurare il processo di diffusione dell’acqua, per stimare quantitativamente l’anisotropia dei tessuti. In particolare, nella sostanza bianca cerebrale la diffusione delle molecole di acqua è direzionata preferenzialmente lungo le fibre, mentre è ostacolata perpendicolarmente ad esse. La trattografia utilizza le informazioni ottenute tramite il DW imaging per fornire una misura della connettività strutturale fra diverse regioni del cervello. Nel lavoro si è concentrata l’attenzione sul fascio corticospinale, che è coinvolto nella motricità volontaria, trasmettendo gli impulsi dalla corteccia motoria ai motoneuroni del midollo spinale. Il lavoro si è articolato in 3 fasi. Nella prima ho sviluppato il pre-processing di immagini DW acquisite con un gradiente di diffusione sia 25 che a 64 direzioni in ognuno dei 25 volontari sani. Si è messo a punto un metodo originale ed innovativo, basato su “Regions of Interest” (ROIs), ottenute attraverso la segmentazione automatizzata della sostanza grigia e ROIs definite manualmente su un template comune a tutti i soggetti in esame. Per ricostruire il fascio si è usato un algoritmo di trattografia probabilistica che stima la direzione più probabile delle fibre e, con un numero elevato di direzioni del gradiente, riesce ad individuare, se presente, più di una direzione dominante (seconda fibra). Nella seconda parte del lavoro, ciascun fascio è stato suddiviso in 100 segmenti (percentili). Sono stati stimati anisotropia frazionaria (FA), diffusività media, probabilità di connettività, volume del fascio e della seconda fibra con un’analisi quantitativa “along-tract”, per ottenere un confronto accurato dei rispettivi percentili dei fasci nei diversi soggetti. Nella terza parte dello studio è stato fatto il confronto dei dati ottenuti a 25 e 64 direzioni del gradiente ed il confronto del fascio fra entrambi i lati. Dall’analisi statistica dei dati inter-subject e intra-subject è emersa un’elevata variabilità tra soggetti, dimostrando l’importanza di parametrizzare il tratto. I risultati ottenuti confermano che il metodo di analisi trattografica del fascio cortico-spinale messo a punto è risultato affidabile e riproducibile. Inoltre, è risultato che un’acquisizione con 25 direzioni di DTI, meglio tollerata dal paziente per la minore durata dello scan, assicura risultati attendibili. La principale applicazione clinica riguarda patologie neurodegenerative con sintomi motori sia acquisite, quali sindromi parkinsoniane sia su base genetica o la valutazione di masse endocraniche, per la definizione del grado di contiguità del fascio. Infine, sono state poste le basi per la standardizzazione dell’analisi quantitativa di altri fasci di interesse in ambito clinico o di studi di ricerca fisiopatogenetica.
Resumo:
L’argomento trattato in questo elaborato riguarda una nuova tecnologia che si sta sviluppando nel settore dell’ingegneria dei tessuti: il Bioprinting. Tale rivoluzionario approccio completamente automatizzato, consiste nell’elaborazione automatica delle immagini CAD (Computer-Aided Design) e nella fabbricazione assistita CAM (Computer-Aided Manufacturing) al fine di ricreare tessuti ed organi. Nel seguito verrà data una definizione del processo, verranno analizzate le varie fasi di laborazione, le tecniche ed i materiali utilizzati. Verranno infine riportati studi riguardanti alcune applicazioni della tecnica, quali la realizzazione di vasi sanguigni, cartilagine e pelle.
Resumo:
Il presente lavoro rientra nella cornice dei progetti volti ad agevolare la traduzione e produzione da parte delle Università italiane di contenuti online e documentazione ufficiale anche in ELF, in modo da renderli più facilmente accessibili a livello internazionale. Uno strumento utile a questo scopo, di cui molte università si stanno dotando, è un supporto terminologico relativo al dominio accademico-istituzionale. Questo elaborato si suddivide in sei capitoli. Il primo capitolo, di introduzione, è seguito dal capitolo 2, che presenta la terminologia come disciplina, offre una descrizione dei concetti della terminologia classica rilevanti per il lavoro, seguita da una panoramica degli strumenti di sistematizzazione della conoscenza utilizzati. Il capitolo 3 introduce il processo europeo di riforma dei sistemi di istruzione superiore, che ha motivato la creazione da parte di diverse università europee di strumenti di gestione della terminologia accademico-istituzionale. Vengono anche illustrate alcune Banche Dati terminologiche reperite presso altre università europee. Segue l’analisi dei progetti avviati dall’Università di Bologna, in particolare della Banca Dati di terminologia riferita alla Didattica e all’Organizzazione dell’Ateneo creata dall’Ufficio Relazioni Internazionali. All’interno del capitolo 4 viene descritto il lavoro di analisi delle fonti utilizzate durante la creazione della Banca Dati. Il capitolo 5 introduce le fonti aggiuntive utilizzate nel processo di revisione e compilazione, ovvero i corpora specialistici di dominio accademico-istituzionale, e descrive il processo di analisi metodologica e le modifiche strutturali implementate sulla Banca Dati originale, per poi illustrare le modalità di ricerca e di compilazione dei campi della Banca Dati. L’ultimo capitolo descrive la Banca Dati finale, riassumendo brevemente i risultati del lavoro svolto e presentando la proposta del metodo di assegnazione della tipologia di scheda terminologica a ciascun termine in base alle sue caratteristiche funzionali come punto di riferimento per la successiva compilazione delle restanti sezioni della Banca Dati.
Resumo:
Nella presente ricerca ho cercato di individuare una definizione di principio insediativo, degli elementi che lo caratterizzano e lo compongono. Ho spaziato dagli approcci teorici di due autori (Vittorio Gregotti e Bernardo Secchi) per arrivare ad un'analisi di tipo progettuale-operativo attraverso il caso studio della Bicocca di Milano.
Resumo:
Questa tesi presenta un metodo generale per la costruzione di curve spline generalizzate di interpolazione locale. Costruiremo quest'ultime miscelando polinomi interpolanti generalizzati a blending function generalizzate. Verrano inoltre verificate sperimentalmente alcune delle proprietà di queste curve.