253 resultados para didattica infinitesimi calcolo differenziale funzioni razionali continuità limite


Relevância:

20.00% 20.00%

Publicador:

Resumo:

Il passaggio dalla concezione delle forze come azioni a distanza a quella che le vede come azioni che avvengono per contatto, attraverso un mezzo descrivibile con una teoria di campo, costituisce un punto di svolta importante nell'evoluzione della fisica. Da un'analisi storica e filosofica, emerge una molteplicità di aspetti che hanno contribuito a questo cambiamento. Rivestono un ruolo importante le concezioni filosofiche che caratterizzano un periodo storico, gli strumenti matematici, i modelli e le analogie. Questa molteplicità rende il passaggio da un paradigma newtoniano a uno maxwelliano un tema significativo per la didattica. L'obiettivo di questo lavoro di tesi è quello di costruire un percorso didattico indirizzato agli studenti del quarto anno di Liceo Scientifico attraverso i concetti principali dell'elettrostatica, vista come punto di congiunzione tra diversi paradigmi concettuali e tra differenti metodi di rappresentazione matematica. Le ricerche sull'uso della storia della fisica come mezzo per la didattica mettono in luce il parallelismo tra i profili concettuali degli studenti di diverse età con i profili newtoniano e maxwelliano, e attribuiscono le difficoltà nel passaggio da un profilo a un altro a una didattica che non evidenzia la necessità di questo cambiamento. Attraverso un'analisi storica dello sviluppo dell'elettrostatica ho dunque identificato alcuni punti significativi per favorire il cambiamento concettuale, dai quali sono partita per costruire un percorso che si compone di 3 unità in cui sono rese esplicite le motivazioni che portano da un'azione a distanza al concetto di campo e di azione tramite un mezzo. I concetti dell'elettrostatica vengono così trattati attraverso una molteplicità di rappresentazioni e facendo uso di analogie tratte dalla storia della fisica, in maniera coerente con le indicazioni Nazionali per i Licei Scientifici e con le ricerche sulla didattica della fisica che riguardano i diversi aspetti toccati.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

Diversi studi in didattica della matematica sostengono che la performance sia influenzata non solo da fattori cognitivi ma anche da fattori affettivi. È ormai assodato che ogni individuo si approccia ai saperi da acquisire e da insegnare in modi dipendenti da aspetti come le emozioni che ha provato e che prova nei confronti della disciplina, le competenze che crede di possedere, le convinzioni sui contenuti disciplinari da apprendere o da spiegare. La matematica che si studia nella scuola secondaria di secondo grado è lontana dalla matematica contemporanea e dalla ricerca attuale. Questo, unito al fatto che quasi mai si sottolinea il percorso storico che ha portato allo sviluppo di certi strumenti matematici, fa sì che l’idea che uno studente si fa di questa disciplina sia irrealistica: una materia arida, immobile, con risultati indiscutibili e stabiliti nell’antichità più remota. Alla luce di ciò si può pensare di proporre agli studenti di scuola secondaria attività che li stimolino e li motivino, nell’ottica di modificare l'insieme delle loro convinzioni sulla matematica. In questo lavoro mi sono occupata della classificazione delle varietà bidimensionali per poi affrontare il passaggio alle 3-varietà. Si tratta di un problema che presenta diversi motivi di interesse: classico ma risolto in tempi moderni, frutto di un processo di pensiero collettivo e che mostra come la matematica sia una materia in costante evoluzione, nella quale l’approccio interdisciplinare può essere vincente rispetto a quello settoriale. Una prima parte del lavoro è stata dedicata allo studio dei temi topologici e geometrici con riferimento non solo alla genesi e, quando possibile, alla strategia dimostrativa, ma anche alla loro valenza didattica. Una seconda parte è stata dedicata alla selezione e all’analisi di come alcuni di questi contenuti si possano declinare in modo fruibile e fertile per gli studenti di scuola secondaria e alla progettazione di un possibile percorso didattico.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

La tomografia ad impedenza elettrica è un metodo di imaging relativamente nuovo che ha suscitato interesse in un ampia gamma di discipline, la sua portabilità, sicurezza e basso costo suggeriscono che potrebbe risolvere diversi problemi clinici. Matematicamente il problema dell'EIT può essere suddiviso in un problema in avanti e uno inverso. Il problema forward, si basa su un'equazione differenziale parziale ellittica, e definisce l'insieme delle tensioni misurate a partire da una distribuzione nota di conducibilità. Il problema inverso è modellato come un problema dei minimi quadrati non lineare, in cui si cerca di ridurre al minimo la differenza tra le tensioni misurate e quelle generate dalla conducibilità ricostruita. Il problema inverso è mal posto e porta ad una soluzione che non dipende con continuità dai dati e quindi le tecniche di ricostruzione richiedono l'introduzione di un termine di regolarizzazione. L'elaborato si concentra sulle strategie algoritmiche per il problema inverso e sulla realizzazione di un'interfaccia grafica in grado di settare i parametri e confrontare velocemente i metodi proposti. Il progetto nella sua visione più ampia vorrebbe utilizzare le strategie algoritmiche proposte per dati ottenuti dal sistema prodotto dall'Università di Bologna nel laboratorio di Ingegneria Cellulare e Molecolare (ICM) di Cesena. I risultati dei test consentono di delineare quali siano gli strumenti migliori per poter arrivare ad una corretta ricostruzione dell'immagine nonché suggerire possibili miglioramenti della configurazione hardware al fine arrivare a risultati sperimentali completi.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

Lo sviluppo della robotica collaborativa, in particolare nelle applicazioni di processi industriali in cui sono richieste la flessibilità decisionale di un utilizzatore umano e le prestazioni di forza e precisione garantite dal robot, pone continue sfide per il miglioramento della capacità di progettare e controllare al meglio questi apparati, rendendoli sempre più accessibili in termini economici e di fruibilità. Questo cambio di paradigma rispetto ai tradizionali robot industriali, verso la condivisone attiva degli ambienti di lavoro tra uomo e macchina, ha accelerato lo sviluppo di nuove soluzioni per rendere possibile l’impiego di robot che possano interagire con un ambiente in continua mutazione, in piena sicurezza. Una possibile soluzione, ancora non diffusa commercialmente, ma largamente presente in letteratura, è rappresentata dagli attuatori elastici. Tra gli attuatori elastici, l’architettura che ad oggi ha destato maggior interesse è quella seriale, in cui l’elemento cedevole viene posto tra l’uscita del riduttore ed il carico. La bibliografia mostra come alcuni limiti della architettura seriale possano essere superati a parità di proprietà dinamiche. La soluzione più promettente è l’architettura differenziale, che si caratterizza per l’utilizzo di riduttori ad un ingresso e due uscite. I vantaggi mostrati dai primi risultati scientifici evidenziano l’ottenimento di modelli dinamici ideali paragonabili alla più nota architettura seriale, superandola in compattezza ed in particolare semplificando l’installazione dei sensori necessari al controllo. In questa tesi viene effettuata un’analisi dinamica preliminare ed uno studio dell’attitudine del dispositivo ad essere utilizzato in contesto collaborativo. Una volta terminata questa fase, si presenta il design e la progettazione di un prototipo, con particolare enfasi sulla scelta di componenti commerciali ed il loro dimensionamento, oltre alla definizione della architettura costruttiva complessiva.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

Il lavoro di tesi presentato ha come obiettivo la valutazione delle potenzialità del metodo di risk assessment per la stima dei rischi nel campo della progettazione geotecnica. In particolare, è stata approfondita l’applicazione dei metodi di trattamento dell’incertezza alla modellazione numerica di terreni caratterizzati da alcune tipologie di argille, il cui comportamento, al variare del grado di saturazione, può oscillare tra ritiro e rigonfiamento, provocando dissesti alle strutture sovrastanti. Ai modelli numerici creati sono stati associati dei modelli probabilistici sui quali sono state eseguite delle analisi di affidabilità associate a parametri del terreno opportunamente scelti in funzione dell’influenza sul meccanismo espansivo del suolo. È stata scelta come soglia, e dunque come stato limite, per il calcolo della probabilità di fallimento, il movimento massimo caratteristico del terreno ottenuto applicando il metodo di Mitchell per i due fenomeni. Questo metodo è adottato nelle Australian Standards, uno dei riferimenti scientifici più rilevanti per la progettazione su suoli espansivi, nonché normativa vigente in Australia, territorio ricco di argille attive. Le analisi hanno permesso di condurre alcune riflessioni circa la conservatività dei termini da normativa, fondati su approcci di carattere puramente deterministico, mostrando come a piccole variazioni plausibili degli input nel modello numerico, si possano ottenere variazioni discutibili nei risultati, illustrando così i vantaggi che comporta il trattamento dell’incertezza sui dati.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

Gli integratori esponenziali costituiscono un'ampia classe di metodi numerici per la risoluzione di equazioni differenziali ordinarie. I primi esempi risalgono a ottanta anni fa e vennero introdotti per la prima volta da Certaine e Pope, ma non hanno avuto un ruolo importante nelle applicazioni per molto tempo, in quanto fanno uso esplicito dell'esponenziale di matrice o di funzioni di matrici di grandi dimensioni. Originariamente, tali metodi vennero sviluppati per problemi stiff e successivamente vennero applicati a equazioni differenziali alle derivate parziali; l'applicazione degli integratori esponenziali a problemi di notevole rilevanza diede inizio a un rigoroso approfondimento teorico e alla costruzione di nuove classi, ad esempio con ordine di convergenza maggiore. I primi modelli di integratori esponenziali sfruttano la linearizzazione del problema e fanno uso della matrice Jacobiana. In generale, tale matrice non ha una struttura particolare e varia continuamente nel tempo, pertanto le tecniche standard per la valutazione dell'esponenziale non sono molto efficienti dal punto di vista computazionale. In questa tesi, studiamo inizialmente l'esponenziale di matrice e il Metodo di Scaling and Squaring per approssimarlo. In seguito, introduciamo alcuni metodi numerici a un passo per la risoluzione di Problemi di Cauchy; infine studiamo il Metodo di Rosenbrock - Eulero che fa uso degli integratori esponenziali per risolvere problemi differenziali con dato iniziale, ne analizziamo convergenza e stabilità e lo applichiamo all'equazione differenziale alle derivate parziali di Allen - Cahn.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

In questa tesi si vuole trattare il concetto di dimensione a partire dalla teoria della misura e lo si vuole applicare per definire e studiare gli insiemi frattali, in particolare, autosimili. Nel primo capitolo si tratta la dimensione di Hausdorff a partire dalla teoria della misura di Hausdorff, di cui si osservano alcune delle proprietà grazie a cui la prima si può definire. Nel secondo capitolo si danno altre definizioni di dimensione, come ad esempio quella di auto-similarità e la box-counting, per mostrare che tale concetto non è univoco. Si analizzano quindi le principali differenze tra le diverse dimensioni citate e si forniscono esempi di insiemi per cui esse coincidono e altri, invece, per cui esse differiscono. Nel terzo capitolo si introduce poi il vero e proprio concetto di insieme frattale. In particolare, definendo i sistemi di funzioni iterate e studiandone le principali proprietà, si definisce una particolare classe di insiemi frattali detti autosimili. In questo capitolo sono enunciati e dimostrati teoremi fondamentali che legano gli attrattori di sistemi di funzioni iterate a insiemi frattali autosimili e forniscono, per alcuni specifici casi, una formula per calcolarne la dimensione di Hausdorff. Si danno, inoltre, esempi di calcolo di tale dimensione per alcuni insiemi frattali autosimili molto noti. Nel quarto capitolo si dà infine un esempio di funzione che abbia grafico frattale, la Funzione di Weierstrass, per mostrare un caso pratico in cui è utilizzata la teoria studiata nei capitoli precedenti.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

Il matematico tedesco Oscar Perron, tra il 1910 e il 1914, introduce l'integrale che porterà il suo nome con lo scopo di risolvere una limitazione negli integrali di Riemann e di Lebesgue. Il primo a studiare questo integrale è Denjoy nel 1912 il cui integrale si dimostrerà essere equivalente a quello di Perron. Oggi è più utilizzato l'integrale di Henstock-Kurzweil, studiato negli anni '60, anch'esso equivalente ai due precedenti. L'integrale di Perron rende integrabili tutte le funzioni che sono la derivata di una qualche funzione e restituisce l'analogo del Teorema Fondamentale del Calcolo Integrale nella versione di Torricelli-Barrow. L'integrale di Perron estende e prolunga l'integrale di Lebesgue, infatti se una funzione è sommabile secondo Lebesgue è anche Perron-integrabile e i due integrali coincidono. Per le funzioni non negative vale anche il viceversa e i due integrali sono equivalenti, ma in generale non è così, esistono infatti funzioni Perron-integrabili ma non sommabili secondo Lebesgue. Una differenza tra questi due integrali è il fatto che quello di Perron non sia un integrale assolutamente convergente, ovvero, la Perron integrabilità di una funzione non implica l'integralità del suo valore assoluto; questa è anche in parte la ragione della poca diffusione di questo integrale. Chiudono la tesi alcuni esempi di funzioni di interesse per la formula di "Torricelli-Barrow" e anche un notevole teorema che non sempre si trova nei libri di testo: se una funzione è derivabile in ogni punto del dominio e la sua derivata prima è sommabile allora vale la formula di "Torricelli-Barrow".

Relevância:

20.00% 20.00%

Publicador:

Resumo:

Il tema centrale di questa Tesi è il cosiddetto "Teorema di Rappresentazione di Riesz" per i funzionali positivi su alcuni spazi di funzione continue. Questo Teorema, caposaldo dell'Analisi Funzionale, è inscindibilmente legato alla Teoria della Misura. Esso, infatti, stabilisce un'importante legame tra funzionali lineari positivi e misure positive di Radon. Dopo un'ampia disamina di questo Teorema, la Tesi si concentra su alcune delle sue Applicazioni in Analisi Reale e in Teoria del Potenziale. Nello specifico, viene provato un notevole risultato di Analisi Reale: la differenziabilità quasi dappertutto delle funzioni monotone su un intervallo reale. Nella dimostrazione di questo fatto, risulta cruciale anche un interessantissimo argomento di "continuità dalla positività", attraverso cui passiamo varie volte nella Tesi. Infatti, esso è determinante anche nelle Applicazioni in Teoria del Potenziale per la costruzione della misura armonica di un aperto regolare e della cosiddetta "misura di Riesz di una funzione subarmonica".

Relevância:

20.00% 20.00%

Publicador:

Resumo:

Nel campo della meccanica uno dei metodi di fissaggio maggiormente utilizzati è il fissaggio per attrito con elementi filettati. Il collegamento tra gli elementi è generato dall’accoppiamento tra i filetti di vite e madrevite, che, una volta precaricati, aderiscono impedendo il movimento reciproco tramite la forza di attrito. Uno dei problemi, però, che si riscontra sull’utilizzo dei giunti filettati è relativo alla resistenza a fatica. Precisamente, gli organi in esame presentano una geometria altamente intagliata: infatti, i filetti, fungono da centri di intensificazione degli sforzi. Per mitigare il fenomeno occorrerebbe diminuire la rigidità della vite, ma ciò comporterebbe un rischio di perdita del precarico con conseguente riduzione di efficacia del collegamento. Si è mostrato, tuttavia, che vi è un possibile metodo alternativo per migliorare la resistenza a fatica delle viti: si è notato che le viti snervate, tramite un serraggio, presentano un limite a vita finita maggiore rispetto a quelle standard. Lo scopo di questo lavoro di tesi è di oggettivare l’incremento del limite di fatica generato da uno snervamento, verificare l’effettivo miglioramento anche sulla vita infinita e dedurne le motivazioni, mediante prove. A tal fine, sono state prese in considerazione diverse tipologie di provini, nello specifico viti M8 di classe 8.8 e 12.9, per verificare l’influenza della resistenza meccanica sull’incremento del limite. I test prevedono anche una breve parentesi sui benefici portati dall’utilizzo di un dado rialzato, in particolare viene mostrato come l’aumento del numero di filetti in presa vada ad esaltare il fenomeno analizzato. Una volta oggettivato l’aumento di resistenza a fatica e avanzate alcune ipotesi sulle cause del fenomeno, è stato sviluppato un modello agli elementi finiti, con semplificazioni volte a ridurre il tempo di calcolo, al fine di studiare la distribuzione degli stress in fase di serraggio per validare le assunzioni avanzate.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

Un concetto tedesco intraducibile in altre lingue, lo Sprachgefühl si colloca al confine tra linguistica e letteratura, due discipline che si rispecchiano nell’accostamento vagamente ossimorico dei due costituenti che formano il composto, rispettivamente in Sprache e in Gefühl (traducibili con “lingua” e “sentimento”), che mostrano la duplice natura razionale e irrazionale del fenomeno. Il presente elaborato, suddiviso in quattro capitoli dedicati di volta in volta a un aspetto diverso dello Sprachgefühl e ramificati talvolta in paragrafi e sotto-paragrafi, ne delinea significato, caratteristiche, funzioni, vantaggi, limiti, ambiguità, contesti d’uso e di applicazione e possibili letture interdisciplinari, con l’ambizione di rendere noto e di diffondere un concetto tanto affascinante e controverso a un pubblico italiano che non abbia necessariamente familiarità con la lingua tedesca e che sia pronto a seguire il cambiamento di prospettiva qui proposto per superare la paura della tradizione e unire due mondi al contempo diversi e affini: ragione e sentimento. A supportare l’indagine etimologica, semantica, grammaticale, didattica e letteraria condotta dallo studio contribuiscono ricerche, realizzate in gran parte da linguisti soprattutto in area germanofona, che hanno indagato il concetto per prime e che hanno avuto una discreta risonanza in ambito accademico. Tra i primi scritti in lingua italiana focalizzati esclusivamente sul fenomeno dello Sprachgefühl, il presente elaborato si propone di esplorare la relazione tra mondo esterno governato da regole e dimensione interiore dell’individuo in cui regnano creatività e fantasia, per capire in ultima analisi il legame speciale che si instaura tra parlante e lingua, doverosamente normativo ma anche necessariamente emotivo.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

L’Intelligenza Artificiale (IA), sin dalla sua introduzione, si è occupata dei giochi, ponendo l’attenzione a quelli detti a informazione perfetta e a somma zero e sequenziali (Tris, Scacchi e Forza4). Dalla Teoria dei Giochi è derivato il modello Minimax, che sfrutta l'albero di gioco per effettuare una ricerca in profondità allo scopo di minimizzare la massima perdita possibile per individuare la mossa migliore da giocare. Tuttavia, il limite di tale algoritmo risiede nel tempo necessario al calcolo (per alberi profondi e di grandi dimensioni) che, in alcuni casi, può essere considerevole. Per mitigare tale problema, è stato introdotta la proposta Alpha-Beta, che attua delle potature sull’albero di gioco grazie l’introduzione di due nuove variabili dette, appunto, alpha e beta. Tale approccio è stato ulteriormente migliorato ricorrendo all’utilizzo del concetto di funzione euristica e introducendo un limite di profondità al quale fermare la ricorsione del modello Alpha-Beta. Tale limite, tuttavia, determina il problema dell’effetto orizzonte, legato al fatto che fermarsi a una profondità intermedia dell’albero può portare l’algoritmo a non vedere delle alcune mosse migliori che possono situarsi nel sotto albero del nodo a cui si ferma la ricerca, appunto l’orizzonte. Ulteriori accorgimenti, come l'algoritmo ad approfondimento iterativo (Iterative Deepening) e il salvataggio degli stati di gioco in una tabella hash, possono ridurre in modo significativo il tempo di calcolo. Partendo da questi studi, sono stati sviluppati degli agenti software per ConnectX, un gioco sviluppato in Java a somma zero e a informazione perfetta come Forza4. Le implementazioni sono state testate su 39 diverse configurazioni di gioco, dimostrando che l'agente PlayerSoft risulta il più ottimale e che l'implementazione della funzione euristica rappresenta un buon compromesso tra complessità di calcolo e risultato atteso.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

Il presente elaborato vuole guidare il lettore lungo l’itinerario che ha previsto la cura e il rilascio di un’applicazione web a tema di e-learning. Greenwich, questo il nome della piattaforma, vuole essere un efficiente strumento di supporto online alla didattica del corso di Basi di Dati dell’Università di Bologna. Lo scopo primario dell’applicazione web è, infatti, quello di fornire agli studenti un mezzo per eseguire query mongoDB in maniera semplice, mirata e su richiesta del docente. Salvo un’approfondita ricerca culturale riguardante il contesto in cui si sviluppa l’applicazione, l’obiettivo primario della trattazione rimane quello di descrivere in modo ordinato i momenti impattanti che hanno segnato, passo dopo passo, le fasi di crescita di Greenwich, raggruppati in tre macro fasi caratteristiche: progettazione, implementazione e validazione.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

Lo scopo di questo lavoro è lo sviluppo, mediante il linguaggio di programmazione Python, di un applicativo per il calcolo e la visualizzazione di frequenze naturali per strutture e cavità. L’applicativo consiste di un’interfaccia grafica e di una libreria nella quale si trovano le diverse tipologie di strutture e cavità presenti in letteratura. I vari sistemi possono essere vincolati da diverse condizioni al contorno e sono inoltre costituiti da materiali isotropi, nel caso di strutture, e fluidi, nel caso di cavità. La prima parte del lavoro comprende la codifica delle soluzioni analitiche per l’analisi modale. La seconda fase è, invece, incentrata sulla validazione del codice, utilizzando un software commerciale per la comparazione di frequenze naturali e forme dei modi.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

Le onde gravitazionali, la cui prima osservazione diretta risale al 2015, sono una delle predizioni più importanti della Relatività Generale di Einstein. In questo lavoro di tesi triennale si vuole fornire uno studio approfondito di tale fenomeno. A tale scopo la trattazione è stata suddivisa in tre capitoli: Nel primo capitolo si getteranno le basi della geometria differenziale, fondamentale per la formulazione della Relatività Generale, introducendo tutte le nozioni ed i teoremi fondamentali per questa teoria. Nel secondo introdurremo i principi alla base della formulazione della teoria della Relatività Generale. Successivamente scriveremo le equazioni di campo di Einstein e ne ricaveremo una prima soluzione esatta (la soluzione di Schwarzschild). Grazie alle conoscenze che verranno introdotte nei primi due capitoli, nell'ultimo potremo studiare in dettaglio il fenomeno delle onde gravitazionali: come si ricavano a partire dalle equazioni di Einsten, come si propagano, come interagiscono con la materia, come si possono rilevare, ...