929 resultados para polinomi trasposizione didattica definizione schemi di definizione
Resumo:
Numerosi lavori apparsi sulla letteratura scientifica negli ultimi decenni hanno evidenziato come, dall’inizio del XX secolo, la temperatura media globale sia aumentata. Tale fenomeno si è fatto più evidente dagli anni ’80, infatti ognuno degli ultimi tre decenni risulta più caldo dei precedenti. L’Europa e l’area mediterranea sono fra le regioni in cui il riscaldamento risulta più marcato, soprattutto per le temperature massime (dal 1951 sono cresciute di +0.39 °C per decennio) che hanno mostrato trend maggiori delle minime. Questo comportamento è stato osservato anche a scala nazionale (+0.25°C/dec per le massime e +0.20°C/dec per le minime). Accanto all’aumento dei valori medi è stato osservato un aumento (diminuzione) degli eventi di caldo (freddo) estremo, studiati attraverso la definizione di alcuni indici basati sui percentili delle distribuzioni. Resta aperto il dibattito su quali siano le cause delle variazioni negli eventi estremi: se le variazioni siano da attribuire unicamente ad un cambiamento nei valori medi, quindi ad uno shift rigido della distribuzione, o se parte del segnale sia dovuto ad una variazione nella forma della stessa, con un conseguente cambiamento nella variabilità. In questo contesto si inserisce la presente tesi con l’obiettivo di studiare l’andamento delle temperature giornaliere sul Trentino-Alto-Adige a partire dal 1926, ricercando cambiamenti nella media e negli eventi estremi in due fasce altimetriche. I valori medi delle temperature massime e minime hanno mostrato un evidente riscaldamento sull’intero periodo specialmente per le massime a bassa quota (`0.13 ̆ 0.03 °C/dec), con valori più alti per la primavera (`0.22 ̆ 0.05 °C/dec) e l’estate (`0.17 ̆ 0.05 °C/dec). Questi trends sono maggiori dopo il 1980 e non significativi in precedenza. L’andamento del numero di giorni con temperature al di sopra e al di sotto delle soglie dei percentili più estremi (stimate sull’intero periodo) indica un chiaro aumento degli estremi caldi, con valori più alti per le massime ad alta quota ( fino a +26.8% per il 99-esimo percentile) e una diminuzione degli estremi freddi (fino a -8.5% per il primo percentile delle minime a bassa quota). Inoltre, stimando anno per anno le soglie di un set di percentili e confrontando i loro trend con quelli della mediana, si è osservato, unicamente per le massime, un trend non uniforme verso temperature più alte, con i percentili più bassi (alti) caratterizzati da trend inferiori (superiori) rispetto a quello della mediana, suggerendo un allargamento della PDF.
Resumo:
In questo lavoro viene presentato un recente modello di buco nero che implementa le proprietà quantistiche di quelle regioni dello spaziotempo dove non possono essere ignorate, pena l'implicazione di paradossi concettuali e fenomenologici. In suddetto modello, la regione di spaziotempo dominata da comportamenti quantistici si estende oltre l'orizzonte del buco nero e suscita un'inversione, o più precisamente un effetto tunnel, della traiettoria di collasso della stella in una traiettoria di espansione simmetrica nel tempo. L'inversione impiega un tempo molto lungo per chi assiste al fenomeno a grandi distanze, ma inferiore al tempo di evaporazione del buco nero tramite radiazione di Hawking, trascurata e considerata come un effetto dissipativo da studiarsi in un secondo tempo. Il resto dello spaziotempo, fuori dalla regione quantistica, soddisfa le equazioni di Einstein. Successivamente viene presentata la teoria della Gravità Quantistica a Loop (LQG) che permetterebbe di studiare la dinamica della regione quantistica senza far riferimento a una metrica classica, ma facendo leva sul contenuto relazionale del tessuto spaziotemporale. Il campo gravitazionale viene riformulato in termini di variabili hamiltoniane in uno spazio delle fasi vincolato e con simmetria di gauge, successivamente promosse a operatori su uno spazio di Hilbert legato a una vantaggiosa discretizzazione dello spaziotempo. La teoria permette la definizione di un'ampiezza di transizione fra stati quantistici di geometria spaziotemporale, applicabile allo studio della regione quantistica nel modello di buco nero proposto. Infine vengono poste le basi per un calcolo in LQG dell'ampiezza di transizione del fenomeno di rimbalzo quantistico all'interno del buco nero, e di conseguenza per un calcolo quantistico del tempo di rimbalzo nel riferimento di osservatori statici a grande distanza da esso, utile per trattare a posteriori un modello che tenga conto della radiazione di Hawking e, auspicatamente, fornisca una possibile risoluzione dei problemi legati alla sua esistenza.
Resumo:
L'analisi accurata del processo di combustione è un aspetto sempre più influente nello sviluppo di un motore a combustione interna. In particolare il fenomeno della detonazione pone dei limiti sull'efficienza dei motori ad accensione comandata. Il rapporto di compressione è limitato in fase di progettazione dello sviluppo motore, lasciando al controllo dell'anticipo di accensione il compito di ridurre le problematiche di una combustione anomala. Nella seguente tesi si vuole implementare una metodologia per la valutazione dell'insorgere e dello sviluppo della detonazione in base alle condizioni di funzionamento del motore per differenti miscele di combustibili. Il metodo consiste nell'affiancare la cinetica chimica tabulata al risolutore CFD, \textsc{KIVA-3}. La cinetica chimica permette di determinare la velocità di reazione per differenti specie durante l'ossidazione a partire da precise condizioni ambiente. Il solutore CFD potrebbe risolvere questo tipo di problema ma utilizzare dei modelli con più reazioni chimiche richiede dei tempi di simulazioni troppo elevati. La cinetica chimica tabulata consiste nella determinazione ed estrapolazione dei dati relativi all'evoluzione della detonazione utilizzando schemi cinetici con centinaia o migliaia di reazioni. In seguito alla determinazione della miscela desiderata sono state eseguite delle simulazioni utilizzando il solutore Cantera per la determinazione dell'evoluzione dell'ossigeno. E' stata scelta questa grandezza come indicatore del progresso della detonazione poiché fornisce un'indicazione sullo stato di avanzamento delle reazioni. Successivamente i dati ricavati sono stati forniti al solutore CFD, tramite il quale sono state effettuate delle simulazioni per verificare i risultati ottenuti nella valutazione del comportamento di un motore ad alte prestazioni.
Resumo:
Il presente lavoro di tesi si occupa dell’analisi delle caratteristiche costituenti un sistema informativo destinato alla gestione della logistica e della produzione di piccole realtà imprenditoriali e, successivamente, della definizione di una possibile struttura modulare dello stesso sistema. Il lavoro, frutto di una collaborazione (tirocinio formativo) presso una società di consulenza organizzativa e informatica, prende le mosse dallo studio di una serie di trattazioni riguardanti i seguenti temi: gestione delle scorte e della produzione, lean production, cambiamento organizzativo e reingegnerizzazione dei processi aziendali, sistemi informativi e informatici, rapporto tra piccole-medie imprese e tecnologie dell’informazione. Da un iniziale introduzione sulle tematiche legate alla gestione dell’informazione in ambito aziendale, si procede ad una descrizione dell’utilizzo delle informazioni, in particolare in riferimento alle tecniche di reingegnerizzazione dei processi aziendali. In seguito, viene analizzato il più ampio concetto delle tecnologie a supporto dell’informazione, e della loro relazione con le piccole e medie imprese italiane. Successivamente, si offre una panoramica dei metodi più utilizzati per la pianificazione e programmazione della produzione e per la gestione delle scorte, differenziandoli tra metodi a fabbisogno e metodi a ripristino. Infine, si procede alla presentazione di una configurazione originale di un sistema informativo gestionale, tramite descrizione approfondita dei moduli di base costituenti, anche attraverso l’ausilio di diagrammi esplicativi, ed il confronto tra il proprio metodo di programmazione materiali ed il più famoso metodo MRP (Material Requirements Planning), diffuso nella maggior parte dei software gestionali in commercio; quest’ultimi verranno confrontati con la soluzione presentata tramite mappa di posizionamento. In conclusione, vengono esposte le ragioni di possibile successo del sistema presentato, mettendo in evidenza l’ormai appurata imprescindibilità dei sistemi informativi gestionali, sottolineata dalla crescita costante della loro adozione da parte delle imprese italiane. In particolare, viene posto l’accento sul fatto che il bacino di mercato costituito dalle piccole imprese sia ancora in parte insoddisfatto. Sono proprio le piccole imprese, come verrà spiegato nel dettaglio, le beneficiarie del nuovo sistema progettato, grazie a determinate caratteristiche studiate ad hoc per questa cospicua fascia di mercato.
Resumo:
Le funzioni polinomiali possono essere utilizzate per approssimare le funzioni continue. Il vantaggio è che i polinomi, le loro derivate e primitive, possono essere rappresentati in maniera semplice attraverso i loro coefficienti ed esistono algoritmi stabili e veloci per valutarli. Inoltre gli spazi polinomiali godono di numerose proprietà importanti. In questo lavoro ci occuperemo di altri spazi funzionali, noti in letteratura come spazi di Chebyshev o polinomi generalizzati, per ragioni di riproducibilità. Infatti ciò che si ottiene attraverso i polinomi è soltanto una approssimazione che spesso risulta essere insufficiente. E' importante, quindi, considerare degli spazi in cui sia possibile avere una rappresentazione esatta di curve. Lo studio di questi spazi è possibile grazie alla potenza di elaborazione degli attuali calcolatori e al buon condizionamento di opportune basi di rappresentazione di questi spazi. Negli spazi polinomiali è la base di Bernstein a garantire quanto detto. Negli spazi di Chebyshev si definisce una nuova base equivalente. In questo lavoro andremo oltre gli spazi di Chebyshev ed approfondiremo gli spazi di Chebyshev a tratti, ovvero gli spazi formati dall'unione di più spazi del tipo precedente. Si dimostrerà inoltre l'esistenza di una base a tratti con le stesse proprietà della base di Bernstein per gli spazi polinomiali.
Resumo:
La tesi si propone di individuare per la città di Cavezzo ed il suo centro urbano, colpito dal sisma del 20 maggio 2012, le strategie per la ricostruzione e la definizione delle proprie forme urbane. In particolare, ci si concentrerà sul nuovo luogo dell'identità urbana, ovvero piazza Matteotti, da sempre spazio pubblico riconosciuto, per il quale si propone un intervento di riqualificazione. Questo avverrà tramite il progetto dello spazio teatrale, che, si inserisce nel contesto, come nuovo elemento di lettura e connessione. Il primo capitolo di questo volume raccoglie alcune informazioni relative al territorio della città di Cavezzo, necessarie alla comprensione delle scelte progettuali, descritte per la scala urbana, nel capitolo secondo. Infine, la seconda parte del volume affronta i temi progettuali per piazza Matteotti e gli approfondimenti, ad essa legati, sullo spazio teatrale, sulle sue forme e sulla sua struttura.
Resumo:
Da poco più di 30 anni la comunità scientifica è a conoscenza dell’occasionale presenza di strutture cicloniche con alcune caratteristiche tropicali sul Mar Mediterraneo, i cosiddetti medicane. A differenza dei cicloni baroclini delle medie latitudini, essi posseggono una spiccata simmetria termica centrale che si estende per gran parte della troposfera, un occhio, talvolta privo di nubi, e una struttura nuvolosa a bande spiraleggianti. Ad oggi non esiste ancora una teoria completa che spieghi la loro formazione ed evoluzione. La trattazione di questa tesi, incentrata sull’analisi dei campi di vorticità potenziale e di umidità relativa, è sviluppata nell’ottica di una miglior comprensione delle dinamiche alla mesoscala più rilevanti per la nascita dei medicane. Lo sviluppo di tecniche avanzate di visualizzazione dei campi generati dal modello WRF, quali l’animazione tridimensionale delle masse d’aria aventi determinate caratteristiche, ha permesso l’individuazione di due zone di forti anomalie di due campi derivati dalla vorticità potenziale in avvicinamento reciproco, intensificazione e mutua interazione nelle ore precedenti la formazione dei medicane. Tramite la prima anomalia che è stata chiamata vorticità potenziale secca (DPV), viene proposta una nuova definizione di tropopausa dinamica, che non presenta i problemi riscontrati nella definizione classica. La seconda anomalia, chiamata vorticità potenziale umida (WPV), individua le aree di forte convezione e permette di avere una visione dinamica dello sviluppo dei medicane alle quote medio-basse. La creazione di pseudo immagini di vapore acqueo tramite la teoria del trasferimento radiativo e la comparazione di queste mappe con quelle effettivamente misurate nei canali nella banda del vapore acqueo dai sensori MVIRI e SEVIRI dei satelliti Meteosat hanno da un lato confermato l’analisi modellistica, dall’altro consentito di stimare gli errori spazio-temporali delle simulazioni. L’utilizzo dei dati di radianza nelle microonde, acquisiti dai sensori AMSU-B e MHS dei satelliti NOAA, ha aggiunto ulteriori informazioni sia sulle intrusioni di vorticità potenziale che sulla struttura degli elementi convettivi presenti sul dominio, in modo particolare sulla presenza di ghiaccio in nube. L’analisi dettagliata di tre casi di medicane avvenuti nel passato sul Mar Mediterraneo ha infine consentito di combinare gli elementi innovativi sviluppati in questo lavoro, apportando nuove basi teoriche e proponendo nuovi metodi di indagine non solo per lo studio di questi fenomeni ma anche per un’accurata ricerca scientifica su ciclogenesi di altro tipo.
Resumo:
Il lavoro nasce dall'esigenza di comprendere quali sono gli ostacoli concettuali e metodologici che gli studenti della scuola secondaria di secondo grado incontrano nello studio delle dimostrazioni. Tale lavoro è in parte dedicato alla descrizione, mediante la proposizione di ragionamenti scorretti, delle tipologie più diffuse di errori commessi nel condurre una dimostrazione, partendo dall'esplicitazione dei requisiti necessari della stessa in contesto logico. La realizzazione di un’esperienza didattica rivolta a studenti delle classi seconde, ha permesso di concretizzare le ipotesi avanzate durante la fase descrittiva. In particolare ha favorito l’individuazione di ulteriori spunti di riflessione su come condurre lo studio delle dimostrazioni e ha messo in evidenza come un’analisi che prescinde dal piano epistemologico risulta fuorviante e inappropriata.
Resumo:
Il teorema di Chevalley-Shephard-Todd è un importante risultato del 1954/1955 nella teoria degli invarianti polinomiali sotto l'azione del gruppo delle matrici invertibili. Lo scopo di questa tesi è presentare e dimostrare il teorema nella versione in cui l'anello dei polinomi ha come campo base R e di vedere alcuni esempi concreti di applicazione del teorema. Questa dimostrazione può essere generalizzata facilmente avendo come campo base un qualsiasi campo K di caratteristica 0.
Resumo:
Lo scopo di questa tesi è quello di presentare un fenomeno sociolinguistico che sta coinvolgendo sempre di più le generazioni d’oggi: il “politically correct”. A partire dalle sue origine americane, il “politically correct” viene qui analizzato in un contesto specifico: quello della Francia degli ultimi anni. Si è cercato di adottare un metodo più pragmatico possibile per accompagnare alla sua definizione e alla sua evoluzione esempi pratici e concreti, a partire dalle somiglianze riscontrate con la “langue de bois”, il linguaggio per eccellenza dei politici, così come viene definito in Francia, il concetto di taboo e i modi in cui si forma questo linguaggio attraverso figure retoriche e sigle. Ci si è concentrati quindi sull’affermazione del “politically correct” nei media, mostrando degli esempi presi da quotidiani francesi circa un fatto che ha sconvolto la Francia e il mondo intero: Charlie Hebdo e gli attacchi terroristici. In questo modo si è potuto affrontare la tematica del razzismo, il tema scelto per analizzare da un punto di vista specifico questo fenomeno sociolinguistico. Si è cercato di mostrare quindi il legame fra questa tematica e il “politically corrrect” analizzando dapprima la crescente paura nei confronti di tutta la comunità musulmana, attraverso l’analisi di parole ed espressioni “politically correct” presenti ormai negli articoli dei giornali francesi, per poi concludere con un’analisi di due libri “Parlez-vous le politiquement correct” di Georges Lebouc e “Mots et culture dans tous les sens. Initiation à la lexiculture pour italophones” e delle espressioni proposte sulla tematica del razzismo e della xenofobia, mostrando attraverso una tabella il cambiamento che hanno subito queste parole rispetto alla lingua originaria.
Resumo:
L'idea di questo studio nasce dalla volontà di capire quali sono le competenze necessarie affinché un interprete riesca a comunicare in modo efficace. In particolare, abbiamo voluto effettuare un'analisi delle competenze comunicative degli interpreti nella loro lingua madre (in questo caso, l'italiano), poiché spesso questa competenza viene data per scontata, per il semplice fatto che si tratta della lingua parlata sin dall'infanzia. Per raggiungere questo obiettivo abbiamo trascritto e analizzato 20 interpretazioni consecutive, realizzate dagli studenti del DIT (Dipartimento di Interpretazione e Traduzione) di Forlì, durante gli esami finali che hanno avuto luogo tra il 2009 e il 2014. Il presente elaborato è suddiviso in quattro capitoli: nel primo capitolo, di natura teorica, proporremo una definizione del concetto di competenza comunicativa, che sarà divisa a sua volta in competenza linguistica, pragmatica e socio-pragmatica. Successivamente, metteremo in rilievo le altre competenze che un interprete di conferenza professionista dovrebbe avere. Il secondo capitolo sarà invece dedicato alla descrizione del concetto di qualità in interpretazione, principio estremamente importante per capire quali caratteristiche deve soddisfare il discorso prodotto da un interprete. Nel terzo capitolo, di natura pratica, presenteremo la modalità di raccolta dei dati e il risultato dell'analisi delle interpretazioni consecutive trascritte; mettendo in risalto alcune problematiche a livello comunicativo come interferenze linguistiche, calchi, problemi a livello lessicale, morfosintattico, incoerenze e omissioni. Infine, nel quarto capitolo proporremo alcune considerazioni conclusive sui temi trattati nei capitoli precedenti.
Resumo:
L’elaborato presenta una ricerca di tipo bibliografico su una serie di articoli estratti da riviste ed archivi elettronici dedicati alla traduzione, interpretazione, comunicazione, e linguistica. La ricerca vuole descrivere lo stato degli studi e delle ricerche relative alle espressioni fisse e a tutte le sottocategorie che vi appartengono: non esiste infatti un accordo unanime circa la loro definizione, classificazione ed uso all’interno della lingua. Il motivo principale che ha portato alla sua realizzazione è il fatto che le espressioni fisse sono fortemente presenti nel linguaggio quotidiano, e si tratta di segmenti composti da più parole che si presentano come un’unica unità di significato culturalmente connotate. Gli obiettivi consistono nel verificare, in primo luogo, se si fosse raggiunto un accordo circa la definizione e categorizzazione delle espressioni fisse; in secondo luogo, elencare le problematiche principali che implica la traduzione o interpretazione di un’espressione fissa; ed in terzo luogo individuare eventuali strategie o suggerimenti proposti dagli studiosi, anche in vista della formazione di traduttori ed interpreti. La prima parte dell’elaborato fornisce un inquadramento teorico dedicato alla definizione delle espressioni fisse e dei concetti di cultura e di intraducibilità. La seconda parte include la ricerca bibliografica vera e propria, e la terza parte propone: in primo luogo, alcune categorizzazioni possibili per descrivere gli articoli trovati; in secondo luogo analizza i problemi evidenziati dagli autori; ed in terzo luogo riassume le strategie e soluzioni elaborate dai diversi studiosi per agevolare traduttori e interpreti (professionisti o in formazione) nella traduzione delle espressioni fisse da una lingua-cultura a un’altra.
Resumo:
Wanderlust, tradotto in italiano con il titolo Giramondo, è uno dei romanzi della famosa autrice americana Danielle Steel nel quale viene raccontata la storia di una giovane donna che decide di seguire il suo forte impulso di viaggiare e di partire per un viaggio oltre oceano. Wanderlust, parola di origine tedesca, oggi significa “forte desiderio o impulso a viaggiare”(Duden Wörterbuch:online) e deriva dal verbo tedesco wandern. Il verbo wandern ha in Germania un importante ruolo sia a livello storico-politico che culturale, tale da rendere difficile la ricerca di un termine equivalente nelle altre lingue, italiano compreso. Il termine, figlio dell’epoca illuminista e romantica indicava in origine un’attività che implicava un “andare a piedi nella natura” ed era “simbolo di un nuovo rapporto dell’individuo con la natura” (Dizionario Zanichelli Tedesco-Italiano). Il Wandern, sviluppatosi nel tempo in ambito politico e soprattutto formativo, contiene nella sua definizione più antica elementi importanti come l’incontro con ciò che è sconosciuto, il rapporto tra corpo anima e natura, la formazione attraverso l’esperienza pratica e il viaggiare inteso come un camminare senza una meta. La Wanderlust dovrebbe quindi essere definita come un forte desiderio o impulso a vagare per imparare, per andare incontro a ciò che è sconosciuto ma, così come il verbo wandern, ha acquistato in uso moderno il significato di viaggiare come attività del tempo libero ed è spesso collegato a situazioni di svago e relax quali le vacanze.
Resumo:
La Flipped Classroom è una metodologia didattica innovativa che prevede una inversione dei momenti classici delle didattica: la lezione frontale a scuola e lo studio individuale a casa. L’idea alla base della Flipped Classroom è utilizzare la tecnologia moderna per diffondere i contenuti fuori dall’orario scolastico così da concentrare poi le ore di lezione sull’elaborazione dei contenuti stessi. In questo modo si riporta l’attenzione didattica sull’elaborazione dei contenuti piuttosto che sul loro ascolto passivo. A seguito dello studio teorico del metodo Flipped ho fatto una esperienza di tirocinio presso una classe terza della Scuola secondaria di primo grado "`Il Guercino"' dell'IC9, in collaborazione con la professoressa Leone, per applicare questa metodologia didattica. Una volta in classe, io e la professoressa, abbiamo considerato più efficace e utile, per gli studenti con cui lavoravamo, fare propedeutica piuttosto che Flipped Classroom. L’esperienza di tirocinio è stata conclusa con un questionario per valutare l’utilizzo, da parte dei nostri studenti, della piattaforma didattica Moodle, in uso nella scuola. I risultati dell’analisi delle risposte è stato conforme a quanto da noi atteso: data l’età i nostri studenti non avevano il giusto grado di autonomia per lavorare con la metodologia della Flipped Classroom.
Resumo:
La capacità di estrarre entità da testi, collegarle tra loro ed eliminare possibili ambiguità tra di esse è uno degli obiettivi del Web Semantico. Chiamato anche Web 3.0, esso presenta numerose innovazioni volte ad arricchire il Web con dati strutturati comprensibili sia dagli umani che dai calcolatori. Nel reperimento di questi temini e nella definizione delle entities è di fondamentale importanza la loro univocità. Il nostro orizzonte di lavoro è quello delle università italiane e le entities che vogliamo estrarre, collegare e rendere univoche sono nomi di professori italiani. L’insieme di informazioni di partenza, per sua natura, vede la presenza di ambiguità. Attenendoci il più possibile alla sua semantica, abbiamo studiato questi dati ed abbiamo risolto le collisioni presenti sui nomi dei professori. Arald, la nostra architettura software per il Web Semantico, estrae entità e le collega, ma soprattutto risolve ambiguità e omonimie tra i professori delle università italiane. Per farlo si appoggia alla semantica dei loro lavori accademici e alla rete di coautori desumibile dagli articoli da loro pubblicati, rappresentati tramite un data cluster. In questo docu delle università italiane e le entities che vogliamo estrarre, collegare e rendere univoche sono nomi di professori italiani. Partendo da un insieme di informazioni che, per sua natura, vede la presenza di ambiguità, lo abbiamo studiato attenendoci il più possibile alla sua semantica, ed abbiamo risolto le collisioni che accadevano sui nomi dei professori. Arald, la nostra architettura software per il Web Semantico, estrae entità, le collega, ma soprattutto risolve ambiguità e omonimie tra i professori delle università italiane. Per farlo si appoggia alla semantica dei loro lavori accademici e alla rete di coautori desumibile dagli articoli da loro pubblicati tramite la costruzione di un data cluster.