190 resultados para Jesucrist-Passió


Relevância:

10.00% 10.00%

Publicador:

Resumo:

Questa tesi è un contributo al dibattito meta-terminologico sull'uso scientifico del termine "monoteismo" in relazione alla religione dell'Israele antico. L'attenzione è rivolta principalmente a un tema specifico: l'esplorazione della nozione teistica di "esistenza" divina (implicita nell'uso di "monoteismo" come lente di osservazione) e il problema della sua applicazione alle concettualizzazioni della divinità che emergono nella Bibbia ebraica. In primo luogo, il "monoteismo" come termine e concetto viene ricondotto alle sue origini storiche nell'ambiente intellettuale del platonismo di Cambridge nell'Inghilterra del XVII secolo. Poi, si affronta il dibattito contemporaneo sull'uso del termine "monoteismo" in relazione alla religione dell'Israele antico e si evidenzia il ruolo dell'"esistenza" teistica come lente distorcente nella lettura dei testi biblici. La maggior parte della tesi sostiene questo assunto con una lettura esegetica dettagliata di tre passi biblici scelti come casi di studio: Sal 82; 1Re 18,20-40* e Zc 14,9. Queste analisi mostrano come la nozione teistica di un'esistenza divina astratta non sia in grado di spiegare la rappresentazione del divino che emerge da questi testi. Allo stesso tempo, il potere divino come categoria euristica viene proposto come un'alternativa più adatta a spiegare queste concettualizzazioni della divinità. L'ultima sezione elabora ulteriormente questi risultati. Qui la regalità di YHWH, come immagine metaforica del suo potere, viene utilizzata per descrivere i cambiamenti nella concettualizzazione di questa divinità. L'argomentazione finale è che in nessuna parte del materiale biblico affrontato in questa tesi si trova una nozione simile a quella di esistenza divina astratta. Poiché tale nozione è implicita nell'uso del termine "monoteismo", questi risultati richiedono una considerazione ancora più attenta del suo uso nel dibattito scientifico.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

In questa tesi vengono studiati anelli commutativi unitari in cui ogni catena ascentente o ogni catena discendente di ideali diventa stazionaria dopo un numero finito di passi. Un anello commutativo unitario R in cui vale la condizione della catena ascendente, ossia ogni catena ascendente di ideali a_1 ⊆ a_2 ⊆ · · · ⊆ R diventa stazionaria dopo un numero finito di passi, o, equivalentemente, in cui ogni ideale è generato da un numero finito di elementi, si dice noetheriano. Questa classe di anelli deve il proprio nome alla matematica tedesca Emmy Noether che, nel 1921, studiando un famoso risultato di Lasker per ideali di anelli di polinomi, si accorse che esso valeva in tutti gli anelli in cui gli ideali sono finitamente generati. Questi anelli giocano un ruolo importante in geometria algebrica, in quanto le varietà algebriche sono luoghi di zeri di polinomi in più variabili a coefficienti in un campo K e le proprietà degli ideali dell’anello K[x_1, . . . , x_n] si riflettono nelle proprietà delle varietà algebriche di K^n. Inoltre, per questi anelli esistono procedure algoritmiche che sono possibili proprio grazie alla condizione della catena ascendente. Un anello commutativo unitario R in cui vale la condizione della catena discendente, ossia ogni ogni catena discendente di ideali . . . a_2 ⊆ a_1 ⊆ R diventa stazionaria dopo un numero finito di passi, si dice artiniano, dal nome del matematico austriaco Emil Artin che li introdusse e ne studiò le proprietà. Il Teorema di Akizuki afferma che un anello commutativo unitario R è artiniano se e solo se è noetheriano di dimensione zero, ossia ogni suo ideale primo è massimale.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

I vantaggi dell’Industria 4.0 hanno stravolto il manufacturing. Ma cosa vuol dire "Industria 4.0"? Essa è la nuova frontiera del manufacturing, basata su princìpi che seguono i passi avanti dei sistemi IT e della tecnologia. Dunque, i suoi pilastri sono: integrazione, verticale e orizzontale, digitalizzazione e automazione. L’Industria 4.0 coinvolge molte aree della supply chain, dai flussi informativi alla logistica. In essa e nell’intralogistica, la priorità è sviluppare dei sistemi di material handling flessibili, automatizzati e con alta prontezza di risposta. Il modello ideale è autonomo, in cui i veicoli fanno parte di una flotta le cui decisioni sono rese decentralizzate grazie all'alta connettività e alla loro abilità di collezionare dati e scambiarli rapidamente nel cloud aziendale.Tutto ciò non sarebbe raggiungibile se ci si affidasse a un comune sistema di trasporto AGV, troppo rigido e centralizzato. La tesi si focalizza su un tipo di material handlers più flessibile e intelligente: gli Autonomous Mobile Robots. Grazie alla loro intelligenza artificiale e alla digitalizzazione degli scambi di informazioni, interagiscono con l’ambiente per evitare ostacoli e calcolare il percorso ottimale. Gli scenari dell’ambiente lavorativo determinano perdite di tempo nel tragitto dei robot e sono queste che dovremo studiare. Nella tesi, i vantaggi apportati dagli AMR, come la loro decentralizzazione delle decisioni, saranno introdotti mediante una literature review e poi l’attenzione verterà sull’analisi di ogni scenario di lavoro. Fondamentali sono state le esperienze nel Logistics 4.0 Lab di NTNU, per ricreare fisicamente alcuni scenari. Inoltre, il software AnyLogic sarà usato per riprodurre e simulare tutti gli scenari rilevanti. I risultati delle simulazioni verranno infine usati per creare un modello che associ ad ogni scenario rilevante una perdita di tempo, attraverso una funzione. Per questo saranno usati software di data analysis come Minitab e MatLab.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

L'obiettivo dell'elaborato è quello di studiare le proprietà spettrali di un'operatore di Markov associato ad una passeggiata aleatoria ipoellittica dipendente da un parametro h, sufficientemente piccolo, e costruita su una varietà liscia finito-dimensionale, connessa, compatta e senza bordo. Nell'affrontare tale problema si utilizza una tecnica di Rothschild e Stein, basata sulla costruzione di un'algebra di Lie graduata. Si ottiene in questo modo una corrispondenza tra la varietà e l'algebra di Lie, e si utilizza la struttura che quest'ultima presenta per studiare il problema su di essa. Il risultato principale a cui si vuole giungere tramite l'analisi spettale dell'operatore di Markov è una stima, uniforme rispetto ad h, per il tasso di convergenza di tale passeggiata aleatoria verso l'equilibrio, al tendere del numero dei passi all'infinito. Tramite l'approccio utilizzato si giunge inoltre ad un risultato di convergenza della catena di Markov ad una diffusione ipoellittica continua al tendere di h a 0.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

L’utilizzo di informazioni di profondità è oggi di fondamentale utilità per molteplici settori applicativi come la robotica, la guida autonoma o assistita, la realtà aumentata e il monitoraggio ambientale. I sensori di profondità disponibili possono essere divisi in attivi e passivi, dove i sensori passivi ricavano le informazioni di profondità dall'ambiente senza emettere segnali, bensì utilizzando i segnali provenienti dall'ambiente (e.g., luce solare). Nei sensori depth passivi stereo è richiesto un algoritmo per elaborare le immagini delle due camere: la tecnica di stereo matching viene utilizzata appunto per stimare la profondità di una scena. Di recente la ricerca si è occupata anche della sinergia con sensori attivi al fine di migliorare la stima della depth ottenuta da un sensore stereo: si utilizzano i punti affidabili generati dal sensore attivo per guidare l'algoritmo di stereo matching verso la soluzione corretta. In questa tesi si è deciso di affrontare questa tematica da un punto di vista nuovo, utilizzando un sistema di proiezione virtuale di punti corrispondenti in immagini stereo: i pixel delle immagini vengono alterati per guidare l'algoritmo ottimizzando i costi. Un altro vantaggio della strategia proposta è la possibilità di iterare il processo, andando a cambiare il pattern in ogni passo: aggregando i passi in un unico risultato, è possibile migliorare il risultato finale. I punti affidabili sono ottenuti mediante sensori attivi (e.g. LiDAR, ToF), oppure direttamente dalle immagini, stimando la confidenza delle mappe prodotte dal medesimo sistema stereo: la confidenza permette di classificare la bontà di un punto fornito dall'algoritmo di matching. Nel corso della tesi sono stati utilizzati sensori attivi per verificare l'efficacia della proiezione virtuale, ma sono state anche effettuate analisi sulle misure di confidenza: lo scopo è verificare se le misure di confidenza possono rimpiazzare o assistere i sensori attivi.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

El Niño-Southern Oscillation (ENSO) è il maggiore fenomeno climatico che avviene a livello dell’Oceano Pacifico tropicale e che ha influenze ambientali, climatiche e socioeconomiche a larga scala. In questa tesi si ripercorrono i passi principali che sono stati fatti per tentare di comprendere un fenomeno così complesso. Per prima cosa, si sono studiati i meccanismi che ne governano la dinamica, fino alla formulazione del modello matematico chiamato Delayed Oscillator (DO) model, proposto da Suarez e Schopf nel 1988. In seguito, per tenere conto della natura caotica del sistema studiato, si è introdotto nel modello lo schema chiamato Stochastically Perturbed Parameterisation Tendencies (SPPT). Infine, si sono portati due esempi di soluzione numerica del DO, sia con che senza l’introduzione della correzione apportata dallo schema SPPT, e si è visto in che misura SPPT porta reali miglioramenti al modello studiato.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

L'elaborato analizza il rapporto tra l'audiovisivo in generale e le disabilità. Nel dettaglio vengono, innanzitutto, illustrati i metodi che rendono accessibile un prodotto audiovisivo, come sottotitoli o interpreti in lingua dei segni per i sordi, oppure audio descrizioni per le persone cieche. Successivamente, attraverso l'approfondimento di numerosi film e serie tv, ma anche spot pubblicitari e cortometraggi, viene affrontato il tema della rappresentazione, che deve essere più trasparente e veritiera nei confronti del pubblico, anche e soprattutto per chi si approccia per la prima volta alle disabilità. Il terzo capitolo è un caso di studio sulla sordità. Si passa da una breve storia fino agli errori più comuni che si effettuano ancora oggi quando si parla di cultura dei sordi. Durante il corso della tesi ci si porrà diverse domande. Quanto conta realmente la persona disabile quando si parla di intrattenimento? Può essere corretto affidare ad un attore normodotato il ruolo di un personaggio disabile? I prodotti audiovisivi al giorno d'oggi presenti sul mercato possono essere al 100% accessibili? La ricerca è arricchita, oltre che con grafici ed immagini, anche con un'intervista a due autori che hanno inserito un personaggio disabile nella loro opera degli anni Duemila. Infine, verranno proposte decine e decine di titoli che spaziano tra diverse disabilità, in modo da permettere un approfondimento ulteriore al di fuori di questo elaborato. Il lavoro finale dimostra come la strada verso un audiovisivo sempre più accessibile ha fatto grandi passi nel corso degli anni, ma è necessaria ancora molta ricerca, informazione e conoscenza in tutte le sfaccettature della disabilità, per permettere un inclusione ed integrazione totale.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

L’elaborato di tesi presentato è stato svolto con l’obiettivo di identificare una metodologia chiara ed efficacie per consentire alle aziende di classificare correttamente i codici presenti a magazzino e assegnarvi la politica di approvvigionamento più idonea. Il focus del lavoro si è incentrato sulla realizzazione di un trade off tra l’obiettivo delle aziende di evitare lo stock out di merce, e quello di riuscire a contenere le giacenze medie dei codici a magazzino e delle corrispettive scorte di sicurezza, che rappresentano sempre un insieme di costi ingenti. Partendo quindi da una analisi dettagliata delle politiche di approvvigionamento dettate dalla letteratura, ci si sofferma sul metodo a punto di riordino, individuato come il più idoneo a perseguire questa mission. Segue quindi una descrizione dei passi da seguire per riuscire a determinare il perimetro di azione più compatibile con le caratteristiche del modello, fino a giungere alla reale simulazione di calcolo e successiva implementazione dei nuovi dati a sistema. Il tutto viene svolto facendo riferimento ai dati appartenenti all’azienda Ravaglioli S.p.A. di Sasso Marconi (BO), che ha permesso di svolgere ed implementare tutti gli steps e le analisi elencate nell’elaborato di tesi e sta attualmente lavorando utilizzando gli output del lavoro presentato. La tesi si conclude con la valutazione degli effettivi benefici derivanti dal progetto e una proposta di possibile sviluppo futuro dell’elaborato.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

In questa tesi è stata analizzata attraverso una modellazione numerica tramite Xbeach la batimetria delle coste di Cesenatico Ponente e la sua modifica dopo eventi meteomarini del clima tipico della durata di 12 ore. Verrà analizzata in primis l'area di studio attraverso la descrizione delle caratteristiche e delle opere presenti, si delineeranno quali funzioni vengono adottate nel modello e seguiranno poi le spiegazioni di tutti i passi svolti e quali parametri sono stati utilizzati per lanciare una simulazione. Infine, verranno mostrati e commentati i risultati più significativi.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Lo sviluppo dei dispositivi mobili negli ultimi anni ha permesso la creazione di pedometri efficienti. Uno dei problemi principali nella realizzazione dei contapassi `e l’accuratezza e la precisione nei risultati. Il seguente elaborato fornisce un’analisi dettagliata dei vari studi presenti in rete a riguardo. La ricerca ha avuto scopo di riassumere le diverse scelte implementative, confrontandole tra di loro e di risaltare i punti in comune fornendo un’analisi sull’effettiva efficacia di ognuna di esse. Il focus di questo studio si concentrer`a sull’analisi di algoritmi per la rilevazione di passi calcolati non in tempo reale. L’elaborato `e stato diviso in quattro differenti fasi. Durante la prima fase vengono esposti i principali studi e le principali metodologie relative all’argomento appena descritto. Nella seconda fase viene presentata la Tassonomia, cio`e una classificazione ordinata di concetti secondo determinati criteri. Nella terza fase `e stata quindi sviluppata una applicazione Android in cui vengono implementanti gli algoritmi descritti nelle fasi precedenti. Nell’ultima fase viene testata l’applicazione attraverso l’uso di specifici test confrontando tra loro i diversi algoritmi proposti.