978 resultados para Carathéodory teorema estensione misura
Resumo:
La tesi si prefigge di definire la molteplicità dell’intersezione tra due curve algebriche piane. La trattazione sarà sviluppata in termini algebrici, per mezzo dello studio degli anelli locali. In seguito, saranno discusse alcune proprietà e sarà proposto qualche esempio di calcolo. Nel terzo capitolo, l’interesse volgerà all’intersezione tra una varietà e un’ipersuperficie di uno spazio proiettivo n-dimensionale. Verrà definita un’ulteriore di molteplicità dell’intersezione, che costituirà una generalizzazione di quella menzionata nei primi due capitoli. A partire da questa definizione, sarà possibile enunciare una versione estesa del Teorema di Bezout. L’ultimo capitolo focalizza l’attenzione nuovamente sulle curve piane, con l’intento di studiarne la topologia in un intorno di un punto singolare. Si introduce, in particolare, l’importante nozione di link di un punto singolare.
Resumo:
In questa tesi cercherò di analizzare le funzioni di Sobolev su R}^{n}, seguendo le trattazioni Measure Theory and Fine Properties of Functions di L.C. Evans e R.F.Gariepy e l'elaborato Functional Analysis, Sobolev Spaces and Partial Differential Equations di H. Brezis. Le funzioni di Sobolev si caratterizzano per essere funzioni con le derivate prime deboli appartenenti a qualche spazio L^{p}. I vari spazi di Sobolev hanno buone proprietà di completezza e compattezza e conseguentemente sono spesso i giusti spazi per le applicazioni di analisi funzionale. Ora, come vedremo, per definizione, l'integrazione per parti è valida per le funzioni di Sobolev. È, invece, meno ovvio che altre regole di calcolo siano allo stesso modo valide. Così, ho inteso chiarire questa questione di carattere generale, con particolare attenzione alle proprietà puntuali delle funzioni di Sobolev. Abbiamo suddiviso il lavoro svolto in cinque capitoli. Il capitolo 1 contiene le definizioni di base necessarie per la trattazione svolta; nel secondo capitolo sono stati derivati vari modi di approssimazione delle funzioni di Sobolev con funzioni lisce e sono state fornite alcune regole di calcolo per tali funzioni. Il capitolo 3 darà un' interpretazione dei valori al bordo delle funzioni di Sobolev utilizzando l'operatore Traccia, mentre il capitolo 4 discute l' estensione su tutto R^{n} di tali funzioni. Proveremo infine le principali disuguaglianze di Sobolev nel Capitolo 5.
Resumo:
Nel presente lavoro è affrontato lo studio delle curve ellittiche viste come curve algebriche piane, più precisamente come cubiche lisce nel piano proiettivo complesso. Dopo aver introdotto nella prima parte le nozioni di Superfici compatte e orientabili e curve algebriche, tramite il teorema di classificazione delle Superfici compatte, se ne fornisce una preliminare classificazione basata sul genere della superficie e della curva, rispettivamente. Da qui, segue la definizione di curve ellittiche e uno studio più dettagliato delle loro pricipali proprietà, quali la possibilità di definirle tramite un'equazione affine nota come equazione di Weierstrass e la loro struttura intrinseca di gruppo abeliano. Si fornisce quindi un'ulteriore classificazione delle cubiche lisce, totalmente differente da quella precedente, che si basa invece sul modulo della cubica, invariante per trasformazioni proiettive. Infine, si considera un aspetto computazionale delle curve ellittiche, ovvero la loro applicazione nel campo della Crittografia. Grazie alla struttura che esse assumono sui campi finiti, sotto opportune ipotesi, i crittosistemi a chiave pubblica basati sul problema del logaritmo discreto definiti sulle curve ellittiche, a parità di sicurezza rispetto ai crittosistemi classici, permettono l'utilizzo di chiavi più corte, e quindi meno costose computazionalmente. Si forniscono quindi le definizioni di problema del logaritmo discreto classico e sulle curve ellittiche, ed alcuni esempi di algoritmi crittografici classici definiti su quest'ultime.
Resumo:
In questa tesi si discutono inizialmente i concetti chiave di agente e sistema multi-agente e si descrivono in ogni dettaglio il linguaggio di programmazione AgentSpeak(L) e la piattaforma Jason, fornendo le basi per poter programmare con il paradigma AOP. Lo scopo centrale di questa tesi è quello di estendere il modello di pianificazione dell’interprete di AgentSpeak(L), considerato come caso specifico, con un approccio che può essere integrato in qualsiasi linguaggio di programmazione ad agenti. Si espone un’evoluzione di AgentSpeak(L) in AgentSpeak(PL), ossia la creazione ed esecuzione di piani automatici in caso di fallimento attraverso l'uso di un algoritmo di planning state-space. L'approccio integrativo modifica il Ciclo di Reasoning di Jason proponendo in fase di pianificazione automatica un riuso di piani già esistenti, atto a favorire la riduzione di tempi e costi nel long-term in un sistema multi-agente. Nel primo capitolo si discute della nozione di agente e delle sue caratteristiche principali mentre nel secondo capitolo come avviene la vera e propria programmazione con AgentSpeak(L). Avendo approfondito questi argomenti base, il terzo capitolo è incentrato sull’interprete Jason e il quarto su una migliore estensione dell'interprete, in grado di superare i limiti migliorando le performance nel tempo. Si delineano infine alcune considerazioni e ringraziamenti nel quinto e ultimo capitolo. Viene proposta con scrittura di carattere divulgativo e non ambiguo.
Resumo:
La tomografia a coerenza ottica (Optical Coherence Tomography, OCT) rappresenta fondamentalmente una nuova modalità di diagnostica per immagini non invasiva e ad alta risoluzione. L’OCT fornisce immagini, sotto forma di sezioni trasversali o tomografiche, delle microstrutture dei tessuti biologici tramite la misura del ritardo dell’eco e dell’intensità della luce retrodiffusa o riflessa dal campione in analisi. L’OCT è una potente tecnica poiché fornisce in tempo reale immagini in situ delle strutture tissutali normali o patologiche, con una risoluzione da 1 a 15 micron, che è da uno a due ordini di grandezza maggiore rispetto alle tecniche per immagini convenzionali come ultrasuoni, risonanza magnetica o tomografia computerizzata. Tutto questo senza la necessità di ottenere e analizzare un campione tramite biopsia e studio istopatologico. Sin dall’inizio della sua utilizzazione nel 1991, l’OCT è stata impiegata in un vasto spettro di applicazioni cliniche, principalmente l'oftalmologia. In strutture non trasparenti, diverse da quelle oculari, la profondità massima esplorabile è limitata a 2-3 mm a causa dei fenomeni di attenuazione secondari e alla dispersione della luce. Inoltre, i numerosi sviluppi fatti dalla tecnologia OCT hanno portato ad alte velocità di acquisizione e, grazie all’utilizzo di sorgenti laser di ultima generazione, risoluzioni assiali dell’ordine di 1 micrometro. Dunque, la tomografia a coerenza ottica può essere sfruttata: - Quando la biopsia escissionale è pericolosa o impossibile. - Quando si rischiano errori di campionamento, come guida alla biopsia in modo da ridurre errori nel prelievo del campione. - Come guida alla procedura d’intervento, in associazione alle procedure di cateterismo, endoscopia e laparoscopia.
Resumo:
Una Brain Computer Interface (BCI) è un dispositivo che permette la misura e l’utilizzo di segnali cerebrali al fine di comandare software e/o periferiche di vario tipo, da semplici videogiochi a complesse protesi robotizzate. Tra i segnali attualmente più utilizzati vi sono i Potenziali Evocati Visivi Steady State (SSVEP), variazioni ritmiche di potenziale elettrico registrabili sulla corteccia visiva primaria con un elettroencefalogramma (EEG) non invasivo; essi sono evocabili attraverso una stimolazione luminosa periodica, e sono caratterizzati da una frequenza di oscillazione pari a quella di stimolazione. Avendo un rapporto segnale rumore (SNR) particolarmente favorevole ed una caratteristica facilmente studiabile, gli SSVEP sono alla base delle più veloci ed immediate BCI attualmente disponibili. All’utente vengono proposte una serie di scelte ciascuna associata ad una stimolazione visiva a diversa frequenza, fra le quali la selezionata si ripresenterà nelle caratteristiche del suo tracciato EEG estratto in tempo reale. L’obiettivo della tesi svolta è stato realizzare un sistema integrato, sviluppato in LabView che implementasse il paradigma BCI SSVEP-based appena descritto, consentendo di: 1. Configurare la generazione di due stimoli luminosi attraverso l’utilizzo di LED esterni; 2. Sincronizzare l’acquisizione del segnale EEG con tale stimolazione; 3. Estrarre features (attributi caratteristici di ciascuna classe) dal suddetto segnale ed utilizzarle per addestrare un classificatore SVM; 4. Utilizzare il classificatore per realizzare un’interfaccia BCI realtime con feedback per l’utente. Il sistema è stato progettato con alcune delle tecniche più avanzate per l’elaborazione spaziale e temporale del segnale ed il suo funzionamento è stato testato su 4 soggetti sani e comparato alle più moderne BCI SSVEP-based confrontabili rinvenute in letteratura.
Resumo:
La caratterizzazione del parenchima polmonare è un aspetto cruciale per l’identificazione dell’enfisema e dell’air trapping in pazienti affetti da broncopneumopatia cronica ostruttiva (BPCO). L’innovazione presente in questo lavoro di tesi è quella di utilizzare a questo scopo l’analisi tessiturale mediante il metodo delle matrici di co-occorrenza su immagini di tomografia computerizzata (TC) acquisite in inspirio ed espirio co-registrate. La co-registrazione che ha portato le immagini acquisite in espirio sullo stesso sistema di riferimento di quelle acquisite in inspirio è avvenuta utilizzando la trasformazione diffeomorfa B-Spline SyN, implementata nel software ANTs, ed è stata applicata sia alle immagini TC che alle features estratte da esse. Dalle matrici di co-occorrenza è stata calcolata la feature Energia, che misura l’uniformità dei livelli di grigio contenuti nell’immagine, e quindi la sua omogeneità. Partendo dal fatto che le aree parenchimali affette da enfisema e air trapping hanno alti livelli di omogeneità dovuti alla presenza dell’aria intrappolata al loro interno, l’idea alla base di questo lavoro è stata quella di identificare queste aree attraverso gli alti valori che l’Energia assume in loro corrispondenza. Sono state quindi stabilite sperimentalmente alcune soglie basate sui valori assunti dall’Energia in inspirio e in espirio. Sulla base di queste il parenchima polmonare è stato clusterizzato in diverse aree identificanti i tessuti sani, quelli affetti da enfisema e quelli affetti dall’air trapping. La clusterizzazione ottenuta è risultata coerente con la reale distribuzione dell’enfisema e dell’air trapping nei pazienti analizzati, dimostrando la validità della tecnica utilizzata e aprendo nuovi scenari futuri alla caratterizzazione del parenchima polmonare in questa patologia.
Resumo:
Movimentazione, da parte di un braccio robotico, di un recipiente riempito con un liquido nello spazio tridimensionale. Sistema di trasferimento liquidi basato sul KUKA youBot, piattaforma open source per la ricerca scientifica. Braccio robotico a 5 gradi di libertà con struttura ortho-parallel e cinematica risolvibile in forma chiusa tramite l’applicazione di Pieper. Studio dei modi di vibrare dei liquidi e modellizzazione dei fenomeni ondosi tramite modello equivalente di tipo pendolo. Analisi delle metodologie di controllo di tipo feed-forward volte a sopprimere la risposta oscillatoria di un tipico sistema vibratorio. Filtraggio delle traiettorie di riferimento da imporre allo youBot, in modo tale da sopprimere le vibrazioni in uscita della massa d’acqua movimentata. Analisi e comparazione delle metodologie di input shaping e filtro esponenziale. Validazione sperimentale delle metodologie proposte implementandole sul manipolatore youBot. Misura dell’entità del moto ondoso basata su dati acquisiti tramite camera RGBD ASUS Xtion PRO LIVE. Algoritmo di visione per l’elaborazione offline dei dati acquisiti, con output l’andamento dell’angolo di oscillazione del piano interpolante la superficie del liquido movimentato.
Resumo:
Le tradizionali tecniche usate per l’analisi della struttura e della composizione comprendono, tra le altre, microscopia ottica, microscopia elettronica, diffrazione a raggi X e analisi chimica. In generale però, la maggior parte di questi metodi richiede una procedura di preparazione che può modificare la struttura o la composizione del campione. È necessario infatti che il campione non subisca alterazioni particolari durante la fase di preparazioni in modo tale che le condizioni fisiologiche rimangano il più possibile simili a quelle che si hanno in situ. Una tecnica che ultimamente sta diventando sempre più significativa in ambito biomedico è la spettroscopia Raman. Innanzitutto con l’analisi Raman la quantità di materiale da studiare per ottenere buoni risultati è minima, visto che possono essere studiati campioni che vanno dai micro ai nanogrammi; inoltre, possono essere analizzati campioni umidi e a pressione atmosferica, condizioni che rispecchiano verosimilmente quelle fisiologiche. Questo tipo di analisi è inoltre vantaggiosa dato che riesce a identificare diversi composti chimici, ha un’elevata risoluzione spaziale (0.6-1µm), riuscendo quindi ad analizzare campioni molto piccoli, ha tempi di misura brevi e può essere utilizzato più volte sullo stesso campione senza che quest’ultimo venga danneggiato. Nel seguente elaborato si sono riportati i risultati di diversi studi condotti sull’idrossiapatite naturale/biologica e sintetica ottenuti mediante questa tecnica spettroscopica. In particolare, ci si è soffermati sulla diversa concentrazione di OH- presente nell’apatite stechiometrica rispetto a quella biologica e di come tale concentrazione sia influenzata dalla presenza o meno dello ione carbonato. Si riportano inoltre le analisi condotte su campioni sintetici e biologici per comprendere se le molecole di acqua si trovino all’interno della struttura del minerale (acqua di bulk) o se siano solamente assorbite in superficie.
Resumo:
La tesi ha avuto come obiettivo l’estensione dell’incarnazione biochimica del simulatore Alchemist, cioè di quella parte del simulatore dedicata alla modellazione di ambienti multicellulari. L'estensione si è focalizzata sullo sviluppo delle necessarie astrazioni per modellare il movimento cellulare, un fenomeno che riveste una grande importanza in molti eventi di rilevanza biologica e fisiologica. A tal scopo si è definito, e implementato sulla piattaforma ALCHEMIST, un modello di: 1) giunzione cellulare 2) estensione spaziale della cellula 3) ambiente cellulare 4) interazione meccanica. Sono infatti questi quattro elementi chiave necessari per la riproduzione il più fedele possibile dei fenomeni biologici associati al movimento cellulare. Al fine di validare il modello e l'implementazione si sono infine sviluppati alcuni test, tra cui, nei principali, viene riprodotto il fenomeno della chemiotassi e l'inseguimento neutrofilo-batterio.
Resumo:
Prima della presente riforma del CNR, esisteva all’interno dell’Ente un Ufficio Brevetti, che supportava i propri ricercatori, a livello nazionale, nelle fasi di primo deposito, estensione all’estero, nella stipula di contratti di cessione e di licenza. Dal momento in cui è entrato in vigore il decreto di riordino dell’Ente (D.L. 4 giugno 2003, n. 127) e si sono creati e avviati gli 11 Dipartimenti, l’ufficio brevetti è stato soppresso e il portafoglio brevettuale è stato affidato ai Dipartimenti, ognuno con la propria macro area di competenza.
Resumo:
En este artículo exploramos una estrategia de desarrollo profesional de profesores de enseñanza básica que tienen a su cargo clases de matemáticas, basada en la profundización de conceptos teóricos y su utilización. El propósito fue identificar elementos del quehacer docente cuando los profesores en ejercicio reflexionan sobre la reproducibilidad de situaciones de enseñanza y aprendizaje, diseñadas por ellos y aplicadas en distintos escenarios. Estos escenarios son distintos grupos de alumnos entre 12 a 13 años en diferentes escuelas. El estudio toma como referente teórico la Teoría de Situaciones Didácticas, que da el soporte al constructo de reproducibilidad, la Teoría Antropológica de lo Didáctico y la conceptualización de reflexión. Es un estudio de caso en donde se realiza un seguimiento a cuatro docentes que diseñan situaciones de enseñanza y aprendizaje sobre el teorema de Pitágoras, en el marco de un curso para su desarrollo profesional. Metodológicamente se empleó el constructo Estudio de Clases para realizar la reflexión sobre los diseños de clases y su reproducibilidad. Los resultados develan que los docentes evolucionan en su reflexión y discusión sobre su quehacer en el aula, por lo cual mejoran las situaciones de enseñanza y aprendizaje y su gestión de clases. Además, se detecta que los profesores fijan ciertos elementos para poder aplicar sus clases o lecciones en distintos escenarios, y así obtener resultados similares.
Resumo:
Este texto abarca temas como: superficies diferenciales, diferenciación e integración en superficies, formas fundamentales, Curvatura Gaussiana, teorema Egregio y teorema de Gauss-Bonnet. La colección de textos lecciones de matemáticas, iniciativa del departamento de Ciencias Básicas de la Universidad de Medellín (Medellín, Colombia) y su grupo de investigación SUMMA, incluye en cada número la exposición detallada de un tema matemático en particular, tratado con el rigor que muchas veces no es posible lograr en un curso regular de la disciplina. Las matemáticas incluyen diferentes áreas del saber matemático como: álgebra, trigonometría, cálculo, estadística y probabilidades, álgebra lineal, métodos lineales y numéricos, historia de las matemáticas, geometría, matemáticas puras y aplicadas, ecuaciones diferenciales y empelo de softwares matemáticos. Todas las carátulas de la colección vienen ilustradas, a manera de identificación, con diseños de la geometría fractal cuya fuente u origen se encuentra referenciada en las páginas interiores de los textos.
Resumo:
Este texto Elementos de Geometría comprende: Geometría Euclidiana y Geometría del Compás. La Geometría Euclidiana se basa en el uso de la regla (no graduada) y el compás, para la construcción de las figuras geométricas. La Geometría Euclidiana se divide, a su vez, en geometría plana y geometría del espacio; la geometría plana trata de las figuras geométricas cuyos puntos están todos situados en el mismo plano y la geometría del espacio del estudio de figuras tridimensionales. El texto aborda, además, el teorema de Gauss que trata de la condición necesaria y suficiente para que una circunferencia se pueda dividir en partes iguales, mediante el uso de la regla y el compás, y teoremas notables como: teorema de Menelaus, teorema de Ceva, teorema de Stewart y teorema de a Alembert. En la geometría del espacio se incluyó un estudio de los cinco poliedros regulares: tetraedro, exaedro, octaedro, icosaedro y dodecaedro. El libro contiene ejercicios al finalizar cada capítulo, en el orden:\' teoremas, lugares geométricos, máximos y mínimos, y problemas varios, con el fin de desarrollar en el estudiante su espíritu investigativo y creativo. Este texto, es una iniciativa de los profesores del Departamento de Ciencias Básicas de la Universidad de Medellín (Medellín - Colombia) y su grupo de investigación SUMMA, yes un programa del Proyecto Institucional Permanencia con Calidad, cuyo objetivo fundamental es disminuir los niveles de deserción y pérdida académica de los estudiantes.
Resumo:
La hoja de cálculo constituye un potente entorno para la experimentación en clase de estadística, comparable al laboratorio en la de ciencias experimentales. Entre sus múltiples aplicaciones se encuentra la de proporcionar un medio para la comprobación experimental de resultados teóricos. Para ilustrarlo, proponemos un modelo para verificar el teorema de Stein relativo a la estimación óptima de un conjunto de k > 2 medias. El carácter paradójico de este resultado lo convierte en un ejemplo ideal para este tipo de simulaciones.