1000 resultados para sospensione progressiva curva rigidezza MATHEMATICA foglio di calcolo
Resumo:
La llamada sucesión necesaria plantea una serie de problemas que atienden a la tutela del legitimario, en cuyo ámbito la reducción de las disposiciones inoficiosas y, en particular la que atiende a los actos inter vivos del causante, adquiere una gran importancia. Importancia que es particularmente relevante en el ordenamiento jurídico español, en el que la acción de reducción, si bien prevista por el Derecho positivo, no está completamente regulada en la norma, subsistiendo, por ello, múltiples cuestiones sin resolver. La presente investigación busca profundizar en el régimen jurídico de la donación inoficiosa tal y como lo recoge el Código civil español, enriqueciéndolo con las aportaciones de la doctrina italiana, cuya solidez interpretativa puede servir de referencia para una eventual reforma del Derecho castellano. Con este objetivo, la presente investigación se centra, entre otros puntos, sobre la configuración histórica de la acción de reducción; el concepto de donación inoficiosa; las operaciones de cálculo de la legítima; la naturaleza jurídica de la acción de reducción y la valoración del bien donado a los efectos de reducción. Finalmente, estudia la validez de las “cláusulas de reducción in valorem”, por medio del as cuales el donante puede autorizar al donatario para que conserve el bien objeto de la donación, entregando al legitimario una cantidad de dinero. En conclusión, la presente tesis permite individuar las características del acto impugnable mediante la acción de reducción de donaciones y las líneas esenciales de la reducción como categoría de ineficacia, lo que a su vez favorecer la resolución de algunos problemas de aplicación de la reducción de donaciones que se encuentran en el ordenamiento español. La investigación, además, permite formular algunas propuestas “de lege ferenda” a fin de agilizar la práctica de la reducción y reducir la litigiosidad, salvaguardando los intereses de legitimario y donatario.
Resumo:
La tesi ripercorre i procedimenti utilizzati per il calcolo dell'asintotica dello splitting dell'operatore puramente magnetico di Schrödinger nel limite semiclassico (con campo magnetico costante) in un dominio aperto limitato e semplicemente connesso il cui bordo ha simmetria assiale ed esattamente due punti di curvatura massima non degeneri. Il punto di partenza è trovare stime a priori sulle sue autofunzioni, che permettono di dire che sono localizzate esponenzialmente vicino al bordo del dominio in oggetto, grazie a queste stime di riesce a modificare l'operatore in maniera tale che l'asintotica dello splitting rimanga equivalente. Si passa in seguito a coordinate tubulari, quindi si rettifica il borso del dominio, andando però a complicare il potenziale magnetico. Si ottengono nuove stime a priori per le autofunzioni. A questo punto si considera lo stesso operatore differenziale ma su un dominio modificato, in cui viene eliminato uno dei punti di curvatura massima. Per tale operatore si ha uno sviluppo asintotico delle autofunzioni (anche dette soluzioni WKB). Si utilizzano poi strumenti di calcolo pseudo-differenziale per studiare l'operatore nel nuovo dominio, ne si localizza la fase per renderlo limitato ed ottenere così una parametrice (anch'essa limitata) avente un simbolo esplicito. Se ne deducono stime di tipo ellittico che possono essere portate all'operatore senza la fase localizzata aggiungendo dei termini di errore. Grazie queste stime si riesce ad approssimare lo splitting (controllando sempre l'errore) che volevamo calcolare (quello dell'operatore sul dominio con due punti di curvatura massima) tramite le autofunzioni dell'operatore sul dominio con un solo punto di curvatura massima, e per queste autofunzioni abbiamo lo sviluppo asintotico (WKB). Considerando l'ordine principale di questi sviluppi si riesce a calcolare esplicitamente il termine dominante dello splitting, ottenendone così l'asintotica nel limite semiclassico.
Resumo:
Lo scopo di questo lavoro di tesi si focalizza sullo studio, sia dal punto di vista analitico che da quello numerico, della conduzione del calore non stazionaria di un mezzo poroso rettangolare saturo di fluido. Per descrivere tale fenomeno sono state adoperate le equazioni di bilancio dell’energia modellate tramite la teoria del non-equilibrio termico locale, cioè una coppia di equazioni di bilancio dell’energia sia per la fase solida sia per la fase fluida, dipendenti l’una dall’altra in quanto legate dal termine generativo di interfase. La necessità di avere due equazioni di bilancio dell’energia è dovuta a una caratteristica importante dei processi di trasferimento del calore in una schiuma metallica. In questo elaborato verranno risolte numericamente le equazioni di biliancio dell’energia del non-equilibrio termico locale, tramite l’ausilio del programma di calcolo MATLAB e il suo solutore “pdepe”, indagando e proponendo una soluzione al “paradosso” introdotto da Vadazs* nel suo articolo. Tale paradosso si presenta quando si risolvono analiticamente le equazioni di bilancio dell’energia del non-equilibrio termico locale applicando due metodi differenti: il metodo di sostituzione delle variabili e il metodo di separazione delle variabili dipendenti. Dai risultati ottenuti da Vadasz emerge una discrepanza tra i due metodi in quanto uno dei due porta a predire un comportamento di equilibrio termico tra le due fasi a ogni istante di tempo, mentre l’altro predirebbe un comportamento di non-equilibrio termico locale tra le due fasi, particolarmente evidente nei primi istanti di tempo. Successivamente si è analizzato il problema di conduzione studiandone la variazione dei transitori termici del campo di temperatura della fase solida e dalla fase fluida al mutare dei parametri adimensionali che caratterizzano le equazioni di bilancio dell’energia nella sue forme adimensionalizzate.
Resumo:
Nell’ambito dello studio della vulnerabilità delle strutture in muratura la modellazione dei maschi murari e la conseguente verifica avviene convenzionalmente considerando tali partizioni come indipendenti, ovvero suddividendo, dapprima,i maschi murari a seconda della loro disposizione spaziale nei confronti della direzione della azione sismica e, successivamente, considerando il contributo dei maschi murari come agenti “in parallelo”.In tale scenario, la modellazione al continuo rende la definizione del singolo maschio murario non banale, in quanto tale tipologia di modellazione vede la geometria dell’edificio come un “unicum” strutturale.Questa dissertazione si prefigge di qualificare e quantificare le differenze scaturite dalla diversa suddivisione dei maschi e delle zone di interfaccia tra diverse pareti murarie, valutando il comportamento del maschio stesso in termini di taglio e sforzo normale ottenuti mediante un’analisi statica non lineare (Pushover). Due modelli ispirati a strutture reali sono analizzati a tal proposito: - Il prototipo testato nel 1994 nel Laboratorio dell’Università di Pavia (modello benchmark n°4). - La scuola “P.Capuzi” di Visso (MC), edificio monitorato permanentemente dall’Osservatorio Sismico delle Strutture del Dipartimento di Protezione Civile [3] e ad oggi demolito (modello benchmark n°5). Il lavoro qui presentato si inserisce in un più ampio programma di ricerca svolto in sinergia da varie unità coinvolte nel progetto ReLUIS 2017/2108 – Linea Strutture in Muratura [1][2] e avente come oggetto l’analisi di strutture benchmark per la valutazione dell’affidabilità di codici di calcolo. I modelli sono stati studiati eseguendo analisi di tipo statico non lineare (Pushover) con distribuzione di forze proporzionale alle masse.
Resumo:
The Cherenkov Telescope Array (CTA) will be the next-generation ground-based observatory to study the universe in the very-high-energy domain. The observatory will rely on a Science Alert Generation (SAG) system to analyze the real-time data from the telescopes and generate science alerts. The SAG system will play a crucial role in the search and follow-up of transients from external alerts, enabling multi-wavelength and multi-messenger collaborations. It will maximize the potential for the detection of the rarest phenomena, such as gamma-ray bursts (GRBs), which are the science case for this study. This study presents an anomaly detection method based on deep learning for detecting gamma-ray burst events in real-time. The performance of the proposed method is evaluated and compared against the Li&Ma standard technique in two use cases of serendipitous discoveries and follow-up observations, using short exposure times. The method shows promising results in detecting GRBs and is flexible enough to allow real-time search for transient events on multiple time scales. The method does not assume background nor source models and doe not require a minimum number of photon counts to perform analysis, making it well-suited for real-time analysis. Future improvements involve further tests, relaxing some of the assumptions made in this study as well as post-trials correction of the detection significance. Moreover, the ability to detect other transient classes in different scenarios must be investigated for completeness. The system can be integrated within the SAG system of CTA and deployed on the onsite computing clusters. This would provide valuable insights into the method's performance in a real-world setting and be another valuable tool for discovering new transient events in real-time. Overall, this study makes a significant contribution to the field of astrophysics by demonstrating the effectiveness of deep learning-based anomaly detection techniques for real-time source detection in gamma-ray astronomy.
Resumo:
Il patrimonio culturale sopravvissuto fino ai giorni nostri nonostante calamità naturali ed eventi catastrofici è oggi sempre più in pericolo: gli eventi naturali, accelerati e resi ancora più distruttivi dagli effetti del cambiamento climatico, lo scoppio continuo di nuovi conflitti armati e l’inconsapevolezza con cui gli uomini sfruttano il territorio comportano un aumento dei rischi e dei possibili danni ad un patrimonio che, tuttavia, è di importanza vitale per la crescita dell’umanità. Per evitare che il patrimonio culturale venga disperso o distrutto, è necessario applicare misure di prevenzione e protezione mirate, utilizzando in maniera efficiente gli strumenti disponibili; lo scopo ultimo della prevenzione e della protezione deve essere la resilienza, che va costruita attraverso la conoscenza e l’attenta pianificazione della gestione del patrimonio. Il presente lavoro di ricerca si propone dunque di analizzare i metodi e le strategie utilizzabili per la valutazione e la gestione del rischio applicati ai beni culturali, verificando a quale livello di consapevolezza si è giunti a livello sia nazionale che internazionale, passando in rassegna le tecnologie che permettono di proteggere il patrimonio agevolando il lavoro di mitigazione del rischio e applicando un prototipo di calcolo e analisi del rischio al caso studio del Museo di Nonantola, in provincia di Modena.
Resumo:
La geometria frattale permette di definire un indice di complessitá strutturale di oggetti che presentano, fino a un certo livello d’ingrandimento, caratteristiche di auto-similaritá: il cervello umano ha un alto livello di complessitá, che cambia durante il corso della vita e con l’insorgenza di patologie. Tale complessitá puó essere descritta tramite la dimensione frattale (FD). L’obiettivo di questo elaborato ́e sviluppare un metodo di calcolo della FD surface-based, partendo dalla ricostruzione mediante mesh triangolari della superficie cerebrale. A questo scopo ́e stata implementata una procedura che utilizza gli strumenti di analisi di neuroimmagini, come FSL e FreeSurfer; l’algoritmo ́e stato validato su fantocci tridimensionali e testato su immagini di risonanza magnetica pesate in T1 del dataset International Consortium for Brain Mapping (ICBM), composto da 86 soggetti sani con etá compresa tra i 19 e gli 85 anni. Dalla ricerca condotta é emerso che il calcolo della FD surface-based restituisce valori accurati per i fantocci e permette di differenziare significativamnete gli uomini dalle donne. Concludendo, riteniamo che la FD surface-based si possa candidare come marcatore di complessitá strutturale nelle neuroimmagini, in modo complementare agli indici morfologici convenzionali.
Resumo:
In questa tesi abbiamo analizzato il non backtracking PageRank, un algoritmo di classificazione variante del PageRank che non considera il backtracking, cioè i cammini che tornano nel nodo da cui sono partiti al passo subito successivo. Lo scopo di questa variante è ottenere una classificazione migliore in tutti quei problemi in cui il backtracking viene evitato. Siamo partiti introducendo il PageRank standard, per poi spiegare nel dettaglio il non backtracking PageRank e quali fossero le analogie e differenze tra i due. Ci siamo poi chiesti come risolvere computazionalmente il problema, studiando il risolutore di sistemi lineari GMRES e facendo delle osservazioni su come si possano ridurre il numero di iterazioni e il tempo di calcolo tramite il precondizionamento. Infine, abbiamo eseguito degli esperimenti sulle reti stradali di alcune città e confrontato i risultati ottenuti tramite le diverse classificazioni.
Resumo:
In questo lavoro estendiamo concetti classici della geometria Riemanniana al fine di risolvere le equazioni di Maxwell sul gruppo delle permutazioni $S_3$. Cominciamo dando la strutture algebriche di base e la definizione di calcolo differenziale quantico con le principali proprietà. Generalizziamo poi concetti della geometria Riemanniana, quali la metrica e l'algebra esterna, al caso quantico. Tutto ciò viene poi applicato ai grafi dando la forma esplicita del calcolo differenziale quantico su $\mathbb{K}(V)$, della metrica e Laplaciano del secondo ordine e infine dell'algebra esterna. A questo punto, riscriviamo le equazioni di Maxwell in forma geometrica compatta usando gli operatori e concetti della geometria differenziale su varietà che abbiamo generalizzato in precedenza. In questo modo, considerando l'elettromagnetismo come teoria di gauge, possiamo risolvere le equazioni di Maxwell su gruppi finiti oltre che su varietà differenziabili. In particolare, noi le risolviamo su $S_3$.
Resumo:
Gli sforzi di ricerca relativi all'High Performance Computing, nel corso degli anni, hanno prodotto risultati importanti inerenti all'incremento delle prestazioni sia in termini di numero di operazioni effettuate per periodo temporale, sia introducendo o migliorando algoritmi paralleli presenti in letteratura. Tali traguardi hanno comportato cambiamenti alla struttura interna delle macchine; si è assistito infatti ad un'evoluzione delle architetture dei processori utilizzati e all'impiego di GPU come risorse di calcolo aggiuntive. La conseguenza di un continuo incremento di prestazioni è quella di dover far fronte ad un grosso dispendio energetico, in quanto le macchine impiegate nell'HPC sono ideate per effettuare un'intensa attività di calcolo in un periodo di tempo molto prolungato; l'energia necessaria per alimentare ciascun nodo e dissipare il calore generato comporta costi elevati. Tra le varie soluzioni proposte per limitare il consumo di energia, quella che ha riscosso maggior interesse, sia a livello di studio che di mercato, è stata l'integrazione di CPU di tipologia RISC (Reduced Instruction Set Computer), in quanto capaci di ottenere prestazioni soddisfacenti con un impiego energetico inferiore rispetto alle CPU CISC (Complex Instruction Set Computer). In questa tesi è presentata l'analisi delle prestazioni di Monte Cimone, un cluster composto da 8 nodi di calcolo basati su architettura RISC-V e distribuiti in 4 piattaforme (\emph{blade}) dual-board. Verranno eseguiti dei benchmark che ci permetteranno di valutare: le prestazioni dello scambio di dati a lunga e corta distanza; le prestazioni nella risoluzione di problemi che presentano un principio di località spaziale ridotto; le prestazioni nella risoluzione di problemi su grafi e, nello specifico, ricerca in ampiezza e cammini minimi da sorgente singola.
Resumo:
L'avanzamento dell'e-commerce e l'aumento della densità abitativa nel centro città sono elementi che incentivano l'incremento della richiesta merci all'interno dei centri urbani. L'attenzione all'impatto ambientale derivante da queste attività operative è un punto focale oggetto di sempre maggiore interesse. Attraverso il seguente studio, l'obiettivo è definire attuali e potenziali soluzioni nell'ambito della logistica urbana, con particolare interesse alle consegne dell'ultimo miglio. Una soluzione proposta riguarda la possibilità di sfruttare la capacità disponibile nei flussi generati dalla folla per movimentare merce, pratica nota sotto il nome di Crowd-shipping. L'idea consiste nella saturazione di mezzi già presenti nella rete urbana al fine di ridurre il numero di veicoli commerciali e minimizzare le esternalità negative annesse. A supporto di questa iniziativa, nell'analisi verranno considerati veicoli autonomi elettrici a guida autonoma. La tesi è incentrata sulla definizione di un modello di ottimizzazione matematica, che mira a designare un network logistico-distributivo efficiente per le consegne dell'ultimo miglio e a minimizzare le distanze degli attori coinvolti. Il problema proposto rappresenta una variante del Vehicle Routing Problem con time windows e multi depots. Il problema è NP-hard, quindi computazionalmente complesso per cui sarà necessario, in fase di analisi, definire un approccio euristico che permetterà di ottenere una soluzione sub-ottima in un tempo di calcolo ragionevole per istanze maggiori. L'analisi è stata sviluppata nell'ambiente di sviluppo Eclipse, attraverso il risolutore Cplex, in linguaggio Java. Per poterne comprendere la validità, è prevista un'ultima fase in cui gli output del modello ottimo e dell'euristica vengono confrontati tra loro su parametri caratteristici. Bisogna tuttavia considerare che l' utilizzo di sistemi cyber-fisici a supporto della logistica non può prescindere da un costante sguardo verso il progresso.
Resumo:
Le malattie infiammatorie croniche intestinali (MICI o MICI, dall’acrostico inglese di “Inflammatory bowel diseases”) costituiscono un insieme di disturbi autoimmuni, in cui è l’attivazione anormale del sistema immunitario, a stimoli altrimenti normali, a procurare danno al corpo stesso. In soggetti geneticamente predisposti si innesca difatti una risposta immunitaria abnorme, la quale produce uno stato infiammatorio cronico all’interno dell’apparato digerente che, nel tempo, genera un danno tissutale con perdita progressiva della funzionalità d’organo. L’obiettivo di questo lavoro di tesi è stato svolgere un’analisi attenta e il più possibile approfondita delle malattie infiammatorie croniche del tratto gastrointestinale, cercando di fornirne una panoramica generale dal punto di vista clinico, per poi addentrarsi nell’ambito della terapia nutrizionale ad esse associata, tema che in questi ultimi anni sta acquisendo progressivamente maggior rilevanza negli standard di cura alla persona.
Resumo:
L’elaborato di tesi presentato è stato svolto con l’obiettivo di identificare una metodologia chiara ed efficacie per consentire alle aziende di classificare correttamente i codici presenti a magazzino e assegnarvi la politica di approvvigionamento più idonea. Il focus del lavoro si è incentrato sulla realizzazione di un trade off tra l’obiettivo delle aziende di evitare lo stock out di merce, e quello di riuscire a contenere le giacenze medie dei codici a magazzino e delle corrispettive scorte di sicurezza, che rappresentano sempre un insieme di costi ingenti. Partendo quindi da una analisi dettagliata delle politiche di approvvigionamento dettate dalla letteratura, ci si sofferma sul metodo a punto di riordino, individuato come il più idoneo a perseguire questa mission. Segue quindi una descrizione dei passi da seguire per riuscire a determinare il perimetro di azione più compatibile con le caratteristiche del modello, fino a giungere alla reale simulazione di calcolo e successiva implementazione dei nuovi dati a sistema. Il tutto viene svolto facendo riferimento ai dati appartenenti all’azienda Ravaglioli S.p.A. di Sasso Marconi (BO), che ha permesso di svolgere ed implementare tutti gli steps e le analisi elencate nell’elaborato di tesi e sta attualmente lavorando utilizzando gli output del lavoro presentato. La tesi si conclude con la valutazione degli effettivi benefici derivanti dal progetto e una proposta di possibile sviluppo futuro dell’elaborato.
Resumo:
MATERIALI E METODI: Tra il 2012 e il 2013, abbiamo analizzato in uno studio prospettico i dati di 48 pazienti sottoposti a ThuLEP con approccio autodidatta. I pazienti sono stati rivalutati a 3, 6, 12 e 24 mesi con la valutazione del PSA, il residuo post-minzionale (RPM), l'uroflussometria (Qmax), l'ecografia transrettale e questionari validati (IPSS: international prostate symptom score e QoL: quality of life) RISULTATI: Il volume medio della prostata è di 63 ± 5,3 ml. Il tempo operatorio medio è stato di 127,58 ± 28.50 minuti. Il peso medio del tessuto asportato è stato di 30,40 ± 13,90 gr. A 6 mesi dopo l'intervento l'RPM medio è diminuito da 165,13 ± 80,15 ml a 7,78 ± 29.19 ml, mentre il Qmax medio è aumentato da 5.75 ± 1.67ml / s a 18.1 ± 5.27 ml / s. I valori medi dei IPSS e QoL hanno dimostrato un progressivo miglioramento: da 19.15 (IQR: 2-31) e 4 (IQR: 1-6) nel preoperatorio a 6.04 (IQR: 1-20) e 1.13 (IQR: 1-4), rispettivamente. Durante la curva di apprendimento si è assistito ad un progressivo aumento del peso del tessuto enucleato e ad una progressiva riduzione del tempo di ospedalizzazione e di cateterismo. Tra le principali complicanze ricordiamo un tasso di incontinenza transitoria del 12,5% a 3 mesi e del 2.1% a 12 mesi. CONCLUSIONI: ThuLEP rappresenta una tecnica chirurgica efficace, sicura e riproducibile indipendentemente dalle dimensioni della prostata. I nostri dati suggeriscono che la ThuLEP offre un miglioramento significativo dei parametri funzionali comparabili con le tecniche tradizionali, nonostante una lunga curva di apprendimento.
Resumo:
Oggetto di questa tesi è lo studio della qualità del servizio di trasporto erogato che condiziona la qualità percepita dall’utente, poiché spesso proprio a causa di un errato processo di pianificazione e gestione della rete, molte aziende non sono in grado di consolidare un alto livello di efficienza che permetta loro di attrarre e servire la crescente domanda. Per questo motivo, si è deciso di indagare sugli aspetti che determinano la qualità erogata e sui fattori che la influenzano, anche attraverso la definizione di alcuni indicatori rappresentativi del servizio erogato. L’area di studio considerata è stata quella urbana di Bologna, e sono state prese in esame due linee di ATC, la 19 e la 27, caratterizzate entrambe da una domanda di trasporto molto elevata. L’interesse è ricaduto in modo particolare sugli aspetti legati alla regolarità del servizio, ovvero al rispetto della cadenza programmata delle corse e alla puntualità, ossia il rispetto dell’orario programmato delle stesse. Proprio da questi due aspetti, infatti, dipende in larga misura la percezione della qualità che gli utenti hanno del servizio di trasporto collettivo. Lo studio è stato condotto sulla base di dati raccolti attraverso due campagne di rilevamento, una effettuata nel mese di maggio dell’anno 2008 e l’altra nel mese di settembre dello stesso anno. La scelta del periodo, della zona e delle modalità di rilevamento è strettamente connessa all’obiettivo prefissato. Il servizio è influenzato dalle caratteristiche del sistema di trasporto: sia da quelle legate alla domanda che da quelle legate all’offerta. Nel caso della domanda di trasporto si considera l’influenza sul servizio del numero di passeggeri saliti e del tempo di sosta alle fermate. Nel caso dell’offerta di trasporto si osservano soprattutto gli aspetti legati alla rete di trasporto su cui si muovono gli autobus, analizzando quindi i tempi di movimento e le velocità dei mezzi, per vedere come le caratteristiche dell’infrastruttura possano condizionare il servizio. A tale proposito è opportuno dire che, mentre i dati della prima analisi ci sono utili per lo studio dell’influenza del tempo di sosta sull’intertempo, nella seconda analisi si vuole cercare di effettuare ulteriori osservazioni sull’influenza del tempo di movimento sulla cadenza, prendendo in esame altri elementi, come ad esempio tratti di linea differenti rispetto al caso precedente. Un’attenzione particolare, inoltre, verrà riservata alla verifica del rispetto della cadenza, dalla quale scaturisce la definizione del livello di servizio per ciò che riguarda la regolarità. Per quest’ultima verrà, inoltre, determinato anche il LOS relativo alla puntualità. Collegato al problema del rispetto della cadenza è il fenomeno dell’accodamento: questo si verifica quando i mezzi di una stessa linea arrivano contemporaneamente ad una fermata uno dietro l’altro. L’accodamento ha, infatti, origine dal mancato rispetto della cadenza programmata tra i mezzi ed è un’evidente manifestazione del mal funzionamento di un servizio di trasporto. Verrà infine condotta un’analisi dei fattori che possono influenzare le prestazioni del servizio di trasporto pubblico, così da collocare i dati ottenuti dalle operazioni di rilevamento in un quadro più preciso, capace di sottolineare alcuni elementi di criticità e possibili rapporti di causalità.