1000 resultados para equazione ipergeometrica equazione di Legendre funzioni speciali
Resumo:
In questa tesi viene presentata un’analisi dettagliata sulla struttura di profili recettori di neuroni coinvolti nell’elaborazione visiva, con particolare attenzione per le cellule appartenenti alla corteccia visiva primaria (V1). Dopo aver illustrato brevemente il percorso effettuato dall’informazione visiva, costituito da retina, nucleo genicolato laterale e V1, vengono descritte la struttura e le principali caratteristiche di profili recettori dei neuroni appartenenti ad ognuno di questi livelli di elaborazione. Per modellare i profili recettori di cellule corticali in V1 si è deciso di utilizzare filtri bidimensionali realizzati mediante funzioni di Gabor nel dominio spaziale. Questo modello ha, infatti, il grande vantaggio di possedere alcune tra le maggiori proprietà dei profili recettori di neuroni appartenenti a V1: struttura del profilo recettore nello spazio (x,y), selettività in orientazione e in frequenza spaziale, indipendenza dalla fase dello stimolo. Viene successivamente presentato il concetto di campo di associazione visivo, mediante il quale sono determinate le caratteristiche principali (posizione spaziale ed orientazione) che diversi oggetti devono possedere per essere percepiti non come unità singole, ma come un unico elemento. I campi di associazione possono essere modellati mediante l’utilizzo del sistema di equazioni differenziali proposto da Citti-Sarti, le cui soluzioni sono curve integrali adatte a ricostruire la struttura dei campi di associazione, come proposti da Field, Hayes ed Hess. Diverse ipotesi sono state presentate su come cellule appartenenti a V1 siano in grado di realizzare simili campi di associazione, ed in particolare, da dove queste possano prendere le informazioni necessarie per farlo. Una di queste è quella sostenuta dai dati di Bosking et al., secondo i quali le connessioni intracorticali più fitte sono quelle tra neuroni non adiacenti tra loro, i cui profili recettori sono co-orientati (con la stessa orientazione preferenziale) e co-assiali (disposti lungo un asse del campo visivo che corrisponde all’orientazione preferenziale). L’analisi effettuata in questa tesi ha come obbiettivo proprio quello di ottenere informazioni utili su come cellule corticali siano legate alla fenomenologia dei campi di associazione. Come già detto, un filtro di Gabor bidimensionale può essere considerato un buon modello per profili recettori di questo tipo di cellule e quindi è possibile definirlo in maniera astratta come l’unità fondamentale nel processo di elaborazione visiva. Per questo motivo viene effettuata un’analisi di cross-correlazione tra un filtro di Gabor con una determinata orientazione e una famiglia di filtri di Gabor aventi n orientazioni. I risultati ottenuti sono stati trattati utilizzando la tecnica di soppressione dei non massimi, in modo da estrarre per ogni punto dell’immagine l’orientazione per la quale si ottiene la risposta massima. Successivamente, dai dati è stato possibile calcolare delle curve integrali simili a quelle ottenute dal modello differenziale proposto da Citti-Sarti. I risultati ottenuti da questa analisi si sono rivelati utili per comprendere più nel dettaglio i processi di elaborazione dei neuroni corticali, ed in particolare, per capire in che modo le informazioni necessarie per la realizzazione di strutture complesse ed articolate come quelle dei campi di associazione, siano già contenute intrinsecamente all’interno di ogni cellula corticale, unità fondamentale dell’elaborazione visiva.
Resumo:
Questa tesi è una panoramica di alcuni concetti base su cui si fonda la dinamica delle galassie. Nel primo capitolo vengono messi in evidenza i concetti più generali dal punto di vista morfologico- strutturale attraverso la classificazione di Hubble. Nel secondo capitolo si mette in evidenza come un sistema possa essere definito non collisionale (attraverso la stima del tempo di rilassamento ai due corpi) e le conseguenze che ne derivano come, per esempio, l' anisotropia dello stesso sistema che conferisce alla galassia la sua classica forma “schiacciata”. Vengono poi descritti la collisional Boltzmann equation (CBE) e il teorema del viriale in forma tensoriale . Integrando la CBE nello spazio delle velocità otteniamo tre equazioni note come equazioni di Jeans: queste hanno una struttura del tutto identica a quelle della fluidodinamica ma con alcune eccezioni significative che non permettono di descrivere completamente la dinamica delle galassie attraverso la fluidodinamica. Il terzo capitolo è un excursus generale sulle galassie ellittiche: dalla loro struttura alla loro dinamica. Dall' applicazione del teorema del viriale ad un sistema ellittico si può notare come la forma “schiacciata” delle galassie sia una conseguenza dell' anisotropia del sistema e sia dovuta solo in minima parte alla rotazione. Successivamente viene presentato un modello galattico (quello di Jeans), che ci permette di calcolare una distribuzione di massa del sistema attraverso un' equazione che purtroppo non ha soluzione unica e quindi ci rende impossibile calcolare il rapporto massa- luminosità. Infine viene descritto il fundamental plane che è una relazione empirica tale per cui ad ogni galassia viene associato un determinato valore di raggio effettivo, dispersione di velocità e luminosità. Nel quarto ed ultimo capitolo viene trattata la dinamica delle parti più esterne di una galassia: disco e bracci. La dinamica del disco è descritta attraverso la curva di rotazione che, come vedremo, ha delle caratteristiche abbastanza diverse da una curva di rotazione di tipo kepleriano (quella che ad esempio descrive l' andamento della velocità in funzione della distanza nel nostro sistema solare). Infine viene descritta la dinamica dei bracci e la teoria delle onde di densità di Lin e Shu, due astronomi americani, che riesce a descrivere compiutamente la nascita e l' evoluzione dei bracci a spirale.
Resumo:
La tesi consiste in una trattazione sui problemi al contorno per le equazioni differenziali. Si affrontano prima i problemi per le equazioni differenziali ordinarie e poi quelli sulle equazioni iperboliche alle derivate parziali, analizzando nello specifico l'equazione delle onde in una e due dimensioni.
Resumo:
Il presente lavoro è stato svolto presso la struttura di Fisica Medica dell'Azienda Ospedaliera IRCCS "Arcispedale S. Maria Nuova" di Reggio Emilia e consiste nello sviluppo di un sistema per l'ottimizzazione della dose in Radioterapia tramite dose-painting basato sui voxel. Il dose painting è una tecnica di pianificazione del trattamento di radioterapia che si basa sull'assegnazione o ridistribuzione della dose secondo le informazioni biologiche e metaboliche che i moderni sistemi di imaging sono in grado di fornire. La realizzazione del modulo di calcolo BioOPT è stata possibile grazie all'utilizzo dei due software open-source Plastimatch e CERR, specifici per l'elaborazione e la registrazione di immagini mediche di diversi tipi e formati e per la gestione, la modifica e il salvataggio di piani di trattamento di radioterapia creati con la maggior parte dei software commerciali ed accademici. Il sistema sviluppato è in grado di registrare le immagini relative ad un paziente, in generale ottenute da diverse tipologie di imaging e acquisite in tempi diversi ed estrarre le informazioni biologiche relative ad una certa struttura. Tali informazioni verranno poi utilizzate per calcolare le distribuzioni di dose "ottimale" che massimizzano il valore delle funzioni radiobiologiche utilizzate per guidare il processo di redistribuzione della dose a livello dei voxel (dose-painting). In questo lavoro il modulo è stato utilizzato principalmente per l'ottimizzazione della dose in pazienti affetti da Glioblastoma, un tumore cerebrale maligno tra i più diffusi e mortali. L'ottimizzatore voxel-based, infatti, è stato sviluppato per essere utilizzabile all'interno di un progetto di ricerca finanziato dal Ministero della Salute per la valutazione di un programma di terapia che include l'uso di un innovativo acceleratore lineare ad alto rateo di dose per la cura di tumori cerebrali in fase avanzata. Al fine di migliorare il trattamento radiante, inoltre, lo studio include la somministrazione della dose tramite dose-painting con lo scopo di verificarne l'efficacia. I risultati ottenuti mostrano che tramite il modulo sviluppato è possibile ottenere distribuzioni di dose eterogenee che tengono conto delle caratteristiche biologiche intratumore stimate a partire dalle immagini multimodali. Inoltre il sistema sviluppato, grazie alla sua natura 'open', è altamente personalizzabile a scopi di ricerca e consente di simulare distribuzioni di dose basate sui voxel e di confrontarle con quelle ottenute con i sistemi commerciali ad uso clinico, che non consentono questo tipo di ottimizzazioni.
Resumo:
La RNA interference è un processo attraverso il quale alcuni piccoli frammenti di RNA (19-25 nucleotidi) sono in grado di silenziare l'espressione genica. La sua scoperta, nel 1998, ha rivoluzionato le concezioni della biologia molecolare, minando le basi del cosiddetto Dogma Centrale. Si è visto che la RNAi riveste ruoli fondamentali in meccanismi di regolazione genica, nello spegnimento dell'espressione e funziona come meccanismo di difesa innata contro varie tipologie di virus. Proprio a causa di queste implicazioni richiama interesse non solo dal punto di vista scientifico, ma anche da quello medico, in quanto potrebbe essere impiegata per lo sviluppo di nuove cure. Nonostante la scoperta di tale azione desti la curiosità e l'interesse di molti, i vari processi coinvolti, soprattutto a livello molecolare, non sono ancora chiari. In questo lavoro si propongono i metodi di analisi di dati di un esperimento prodotto dall'Istituto di Biologia molecolare e cellulare di Strasburgo. Nell'esperimento in questione vengono studiate le funzioni che l'enzima Dicer-2 ha nel pathway - cioè la catena di reazioni biomolecolari - della RNA interference durante un'infezione virale nel moscerino della frutta Drosophila Melanogaster. Per comprendere in che modo Dicer-2 intervenga nel silenziamento bisogna capire in quali casi e quali parti di RNA vengono silenziate, a seconda del diverso tipo di mutazione dell'enzima stesso. Dunque è necessario sequenziare l'RNA nelle diverse condizioni sperimentali, ottenendo così i dati da analizzare. Parte dei metodi statistici che verranno proposti risultano poco convenzionali, come conseguenza della peculiarità e della difficoltà dei quesiti che l'esperimento mette in luce. Siccome le tematiche affrontate richiedono un approccio sempre più interdisciplinare, è aumentata considerevolmente la richiesta di esperti di altri settori scientifici come matematici, informatici, fisici, statistici e ingegneri. Questa collaborazione, grazie a una diversità di approccio ai problemi, può fornire nuovi strumenti di comprensione in ambiti che, fino a poco tempo fa, rientravano unicamente nella sfera di competenza dei biologi.
Resumo:
La seguente tesi presenta lo sviluppo di un sistema di controllo e gestione remota per il tracking di un satellite. Il progetto, denominato ALMATracker, è sviluppato dal corso di Ingegneria Aerospaziale della scuola di Ingegneria e Architettura Aerospaziale dell’Università di Bologna con sede a Forlì. Consiste nella creazione di una motorizzazione per antenne su due assi, movimentata da un hardware commerciale programmabile. Il posizionamento può essere eseguito sia manualmente, su richiesta di un utente da PC remoto, sia automaticamente secondo un’orbita preimpostata. I setpoint di velocità o posizione sono elaborati dal sistema fino ad ottenere un segnale che procede alla movimentazione in velocità dell’antenna. Il comando automatico, invece, orienta l’antenna in modo tale da mantenerla fissa su una traiettoria orbitale di uno specifico spacecraft. La movimentazione automatica segue funzioni polinomiali fornite dall’utente, ricavate da software di propagazione e predizione esterno al sistema ALMATracker. In questo caso il sistema deve procedere alla rotazione mantenendo la velocità richiesta dalla funzione polinomiale. Il controllo effettuato in catena chiusa è attuato tramite una serie di trasduttori di posizione presenti nel sistema.
Resumo:
NAVA®, dall’inglese Neurally Adjusted Ventilatory Assist, è una tecnica di monitoraggio e di ventilazione e rappresenta una sofisticata innovazione tecnologica in quanto consente un’assistenza ventilatoria costantemente in armonia con le esigenze del paziente, grazie alla rilevazione diretta dell’attività elettrica del diaframma. Da un punto di vista pratico-operativo, NAVA è un modulo integrativo che si inserisce nelle apparecchiature di ventilazione già esistenti integrandone al meglio le funzionalità. A tale modulo è collegato un sondino nasogastrico nella cui parte distale vi sono elettrodi bipolari. Il sondino viene inserito nell’esofago vicino al diaframma e permette l’acquisizione del segnale Edi (Diaphragmatic Electrical Activity), relativo all’attività elettrica del diaframma. L’attività di quest ultimo è strettamente correlata alla dinamica respiratoria del paziente, in quanto il diaframma, contraendosi, determina il flusso d’aria all’interno delle vie aree. Il segnale Edi acquisito viene usato per interfacciarsi con il ventilatore e grazie speciali algoritmi, il segnale guida il ventilatore permettendo un’assistenza ventilatoria proporzionale e sincrona agli sforzi respiratori del paziente. NAVA è tra le nuove apparecchiature sanitarie ed elettromedicali che la Banca Popolare dell’Emilia Romagna ha recentemente donato al Centro Grandi Ustionati dell’Ospedale Bufalini di Cesena per un valore complessivo di oltre 120.000 euro. NAVA e gli altri strumenti donati sono apparecchiature di ultima generazione destinate a migliorare le possibilità di sopravvivenza dei pazienti più critici, con ustioni e ferite alla cute molto gravi, che necessitano di un’assistenza intensiva. In questo elaborato, nel Capitolo 1, viene presentata la Fisiologia dell’apparato respiratorio e a seguire, nel Capitolo 2, viene descritta la Ventilazione meccanica convenzionale, ancora oggi molto utilizzata. Successivamente, nel Capitolo 3 è illustrata la nuova modalità NAVA. Proseguendo, nel Capitolo 4 si apre un confronto tra le principali differenze tra la NAVA e le precedenti modalità di ventilazione. L’elaborato si conclude con la speranza che NAVA, un’innovazione senza precedenti, non sia limitata ad un investimento potenzialmente utile nel presente della terapia intensiva, ma che la ricerca ad essa correlata possa, in un imminente futuro, aprire la strada a nuove tecnologie ancora più efficienti nella salvaguardia dei pazienti in terapia intensiva.
Resumo:
Prima di fornire una formulazione esaustiva dell'onda d'urto, è d'uopo definire il gas come oggetto fisico e le sue principali caratteristiche. Quanto si farà nei paragrafi seguenti quindi, sarà tentare di formalizzare il sistema gassoso dal punto di vista fisico e matematico. Sarà necessario introdurre un modello del sistema (par. 1.1) che ci permetta di lavorare a livello statistico sull'insieme di particelle che lo compongono per caratterizzare le funzioni termodinamiche classiche come medie temporali. Tramite queste considerazioni si stabilirà quali sono le quantità che si conservano nel moto di un fluido e si vedrà che tali leggi di conservazione formano un sistema di 5 equazioni differenziali parziali in 6 incognite. Tramite la linearizzazione di questo sistema si individueranno delle soluzioni chiamate onde sonore che danno un'indicazione sul modo in cui si propagano delle perturbazioni all'interno di un fluido; in particolar modo saranno utili per la determinazione del numero di Mach che rende possibile la distinzione tra due regimi: subsonico e supersonico (par. 1.2). Sarà possibile, a questo punto, indagare il fenomeno dell'onda d'urto (par. 2.1) e, nel dettaglio, due casi particolarmente utili in contesto astrofisico quali: l'onda d'urto per un gas politropico (par. 2.2), un'onda d'urto sferica che avanza verso il suo centro (2.2). Lo scopo di questa trattazione è indagare, o se non altro tentare, quanto avviene in un'esplosione di Supernova (par. 3). Relativamente a questo fenomeno, ne viene data una classificazione sommaria (par. 3.1), mentre particolare attenzione sarà rivolta alle Supernovae di tipo Ia (par. 3.2) che grazie alla loro luminosità standard costituiscono un punto di riferimento nell'Universo visibile.
Resumo:
Il flusso di Rayleigh-Bénard, costituito da un fluido racchiuso fra due pareti a diversa temperatura, rappresenta il paradigma della convezione termica. In natura e nelle applicazioni industriali, il moto convettivo avviene principalmente in regime turbolento, rivelando un fenomeno estremamente complesso. L'obiettivo principale di questo elaborato di tesi consiste nell'isolare e descrivere gli aspetti salienti di un flusso turbolento di Rayleigh-Bénard. L'analisi è applicata a dati ottenuti da tre simulazioni numeriche dirette effettuate allo stesso numero di Rayleigh (Ra=10^5) e a numeri di Prandtl differenti (Pr=0.7,2,7). Sulla base di alcune statistiche a singolo punto, vengono definite nel flusso tre regioni caratteritiche: il bulk al centro della cella, lo strato limite termico e quello viscoso in prossimità delle pareti. Grazie all'analisi dei campi istantanei e delle correlazioni spaziali a due punti, sono state poi individuate due strutture fondamentali della convezione turbolenta: le piume termiche e la circolazione a grande scala. L'equazione generalizzata di Kolmogorov, introdotta nell'ultima parte della trattazione, permette di approcciare il problema nella sua complessità, visualizzando come l'energia cinetica viene immessa, si distribuisce e viene dissipata sia nello spazio fisico, sia in quello delle scale turbolente. L'immagine che emerge dall'analisi complessiva è quella di un flusso del tutto simile a una macchina termica. L'energia cinetica viene prodotta nel bulk, considerato il motore del flusso, e da qui fluisce verso le pareti, dove viene infine dissipata.
Resumo:
Descrizione delle funzioni hash SHA, in particolare SHA-3, e loro sicurezza in campo crittografico.
Resumo:
L’approccio performance-based nell’Ingegneria sismica è una metodologia di progetto che tiene esplicitamente in conto la performance dell’edificio tra i criteri progettuali. Nell’ambito dei metodi PBEE (Performance-Based Earthquake Engineering) di seconda generazione, quello proposto dal PEER (Pacific Earthquake Engineering Research Center) risulta essere il più diffuso. In esso la performance dell’edificio oggetto di studio viene valutata in termini quantitativi secondo le 3D’s (dollars, deaths, downtime – soldi, decessi, inutilizzo), quantità di notevole interesse per l’utente finale. Il metodo si compone di quattro step, indipendenti tra loro fino alla sintesi finale. Essi sono: l’analisi di pericolosità, l’analisi strutturale, l’analisi di danno, l’analisi delle perdite o di loss. Il risultato finale è la curva di loss, che assegna ad ogni possibile perdita economica conseguente all’evento sismico una probabilità di superamento nell’arco temporale di riferimento. Dopo la presentazione del metodo PEER, si è provveduto ad una sua applicazione su di un caso di studio, nella fattispecie un telaio piano di quattro campate, multipiano, in calcestruzzo armato, costruito secondo le norme del ’92. Per l’analisi di pericolosità si è fatto ricorso alle mappe di pericolosità disponibili sul sito INGV, mentre per l’analisi strutturale si è utilizzato il software open-source OpenSees. Le funzioni di fragilità e quelle di loss sono state sviluppate facendo riferimento alla letteratura scientifica, in particolare il bollettino Fib numero 68 “Probabilistic performance-based seismic design”. In questa sede ci si è concentrati unicamente sulla stima delle perdite economiche, tralasciando le altre due variabili decisionali. Al termine del procedimento si è svolta un’analisi di sensitività per indagare quali parametri influenzino maggiormente la curva di loss. Data la curva di pericolosità, il legame EDP(IM) e la deformazione ultima a collasso risultano essere i più rilevanti sul risultato dell’analisi.
Resumo:
L’idea da cui nasce questa tesi è quella di introdurre in Blender un Add-on in linguaggio Python che permetta di applicare alcune deformazioni di tipo surface-based a mesh poligonali. Questa tipologia di deformazioni rappresentano l’alternativa alle deformazioni di mesh poligonali tramite rigging ( cioè l’aggiunta di uno scheletro per controllare e per animare la mesh) e caging (cioè l’utilizzo di una struttura di controllo di tipo reticolare che propaga la sua deformazione su un oggetto in essa immerso), che di solito sono le prescelte in computer animation e in modellazione. Entrambe le deformazioni indicate sono già estremamente radicate in Blender, prova ne è il fatto che esiste più di un modificatore che le implementa, già integrato in codice nativo. Si introduce inizialmente la tecnica di deformazione di mesh poligonali tramite elasticità discreta, che è stata realizzata, quindi, presenteremo diverse metodologie di deformazione. Illustreremo poi come modellare, creare ed editare delle mesh in Blender. Non ci soffermeremo su dettagli puramente dettati dall’interfaccia utente, cercheremo invece di addentrarci nei concetti e nelle strutture teoriche, allo scopo di avere le basi logiche per definire una Add-on che risulti veramente efficace e utile all’interno del sistema di modellazione. Approfondiremo la struttura di due modificatori chiave per la deformazioni di mesh : Lattice Modifier e Mesh Deform Modifier che implementano una metodologia di tipo space-based. Infine ci concentreremo sulla parte di scripting Python in Blender. Daremo un’idea delle strutture dati, dei metodi e delle funzioni da utilizzare per interagire con l’ambiente circostante, con i singoli oggetti ed in particolare con le Mesh e daremo un esempio di script Python. Andremo infine a descrivere l’implementazione della deformazione elastica mediante add-on Python in Blender.
Resumo:
Dopo aver analizzato il conflitto, le sue funzioni e le modalità di gestione, l'autore si sofferma dapprima sulle varie tipologie di mediazione per poi focalizzare l'attenzione sulla mediazione civile e commerciale evidenziando i dati disponibili dall'entrata in vigore del tentativo obbligatorio come condizione di procedibilità della domanda giudiziale per le materie civili, alla fine del 2013.
Resumo:
In questa tesi viene studiata la libreria zbar.h il cui compito è decodificare i barcode presenti in immagini. Per acquisire le immagini si utilizzano funzioni contenute nella libreria OpenCV. Successivamente viene creata un'interfaccia tra OpenCV e ZBar. Vengono effettuati alcuni test per verificare l'efficienza sia di ZBar e sia dell'interfaccia. Concludendo, si crea una nuova libreria in cui sono inglobate le funzioni di ZBar e l'interfaccia OpenCV-ZBar
Resumo:
Funzioni di adattatività delle frizioni: Sono state ricercate ed individuate le cause dei diversi risultati delle adaption riscontrati tra costruttore cambi e Ferrari Torque Map (mappe pressione-slip-coppia): E’ stato realizzato uno strumento in grado di calcolare e simulare il funzionamento delle stesse a partire dalle misure a banco: esito positivo dei test in vettura con i nuovi dati Considerazioni sul processo di rodaggio delle frizioni: E’ stata valutata l’efficacia della nuova procedura in relazione a quanto fatto in precedenza in seguito alla bassa stabilità riscontrata nelle frizioni