994 resultados para probabilità condizionata scuola secondaria secondo grado


Relevância:

30.00% 30.00%

Publicador:

Resumo:

Il fotovoltaico (FV) costituisce il modo più diretto di conversione dell’energia solare in energia elettrica e si basa sull’effetto osservato da Becquerel nel 1839. Si può affermare che tale effetto è rimasto una curiosità di laboratorio dalla metà del XIX secolo fino al 1954, quando la prima cella solare in silicio con un’efficienza di conversione del 6% fu costruita ai Laboratori Bell. Da allora la ricerca in questo settore ha sperimentato una crescita costante ed oggi si può contare su tecnologie mature, in grado di sviluppare alte prestazioni in via di ulteriore miglioramento. Le celle tandem costituiscono ora il migliore esempio di dispositivi fotovoltaici in grado di convertire buona parte della potenza irraggiata dal sole. Aumentare l’efficienza con le celle tandem significa sfruttare le differenti lunghezze d’onda dello spettro solare. Questi dispositivi sono infatti costruiti impilando semiconduttori, disponendoli dal basso in modo crescente secondo i loro valori di energia di gap. A partire dall’analisi delle caratteristiche principali della radiazione solare e del principio di funzionamento delle celle fotovoltaiche, questo lavoro si propone di mettere in evidenza le potenzialità della tecnologia a multigiunzione, che ha già dimostrato rilevanti capacità di ottimizzazione delle prestazioni delle celle solari, facendo ben sperare per il futuro.

Relevância:

30.00% 30.00%

Publicador:

Resumo:

Nel presente lavoro di tesi ho sviluppato un metodo di analisi di dati di DW-MRI (Diffusion-Weighted Magnetic Resonance Imaging)cerebrale, tramite un algoritmo di trattografia, per la ricostruzione del tratto corticospinale, in un campione di 25 volontari sani. Il diffusion tensor imaging (DTI) sfrutta la capacità del tensore di diffusione D di misurare il processo di diffusione dell’acqua, per stimare quantitativamente l’anisotropia dei tessuti. In particolare, nella sostanza bianca cerebrale la diffusione delle molecole di acqua è direzionata preferenzialmente lungo le fibre, mentre è ostacolata perpendicolarmente ad esse. La trattografia utilizza le informazioni ottenute tramite il DW imaging per fornire una misura della connettività strutturale fra diverse regioni del cervello. Nel lavoro si è concentrata l’attenzione sul fascio corticospinale, che è coinvolto nella motricità volontaria, trasmettendo gli impulsi dalla corteccia motoria ai motoneuroni del midollo spinale. Il lavoro si è articolato in 3 fasi. Nella prima ho sviluppato il pre-processing di immagini DW acquisite con un gradiente di diffusione sia 25 che a 64 direzioni in ognuno dei 25 volontari sani. Si è messo a punto un metodo originale ed innovativo, basato su “Regions of Interest” (ROIs), ottenute attraverso la segmentazione automatizzata della sostanza grigia e ROIs definite manualmente su un template comune a tutti i soggetti in esame. Per ricostruire il fascio si è usato un algoritmo di trattografia probabilistica che stima la direzione più probabile delle fibre e, con un numero elevato di direzioni del gradiente, riesce ad individuare, se presente, più di una direzione dominante (seconda fibra). Nella seconda parte del lavoro, ciascun fascio è stato suddiviso in 100 segmenti (percentili). Sono stati stimati anisotropia frazionaria (FA), diffusività media, probabilità di connettività, volume del fascio e della seconda fibra con un’analisi quantitativa “along-tract”, per ottenere un confronto accurato dei rispettivi percentili dei fasci nei diversi soggetti. Nella terza parte dello studio è stato fatto il confronto dei dati ottenuti a 25 e 64 direzioni del gradiente ed il confronto del fascio fra entrambi i lati. Dall’analisi statistica dei dati inter-subject e intra-subject è emersa un’elevata variabilità tra soggetti, dimostrando l’importanza di parametrizzare il tratto. I risultati ottenuti confermano che il metodo di analisi trattografica del fascio cortico-spinale messo a punto è risultato affidabile e riproducibile. Inoltre, è risultato che un’acquisizione con 25 direzioni di DTI, meglio tollerata dal paziente per la minore durata dello scan, assicura risultati attendibili. La principale applicazione clinica riguarda patologie neurodegenerative con sintomi motori sia acquisite, quali sindromi parkinsoniane sia su base genetica o la valutazione di masse endocraniche, per la definizione del grado di contiguità del fascio. Infine, sono state poste le basi per la standardizzazione dell’analisi quantitativa di altri fasci di interesse in ambito clinico o di studi di ricerca fisiopatogenetica.

Relevância:

30.00% 30.00%

Publicador:

Resumo:

Si è interessati a classificare le cubiche del piano proiettivo complesso. In particolare vengono classificate le cubiche piane dimostrando che ogni cubica non singolare è proiettivamente equivalente a una cubica di equazione affine nota e che esistono infinite classi di equivalenza proiettiva per le cubiche piane non singolari. Si mostra inoltre che le cubiche piane singolari irriducibili possono essere ricondotte a due classi di equivalenza proiettive: la prima classe contiene le cubiche con un nodo, la seconda classe contiene invece le cubiche con una cuspide. Infine si studiano le proiezioni piane della cubica gobba da un suo punto, oppure da un punto esterno alla cubica.

Relevância:

30.00% 30.00%

Publicador:

Resumo:

L’occhio è l’organo di senso responsabile della visione. Uno strumento ottico il cui principio di funzionamento è paragonabile a quanto avviene in una macchina fotografica. Secondo l’Organizzazione mondiale della sanità (WHO 2010) sulla Terra vivono 285 milioni di persone con handicap visivo grave: 39 milioni sono i ciechi e 246 milioni sono gli ipovedenti. Si evince pertanto la necessità di tecnologie in grado di ripristinare la funzionalità retinica nelle differenti condizioni fisiopatologiche che ne causano la compromissione. In quest’ottica, scopo di questa tesi è stato quello di passare in rassegna le principali tipologie di sistemi tecnologici volti alla diagnosi e alla terapia delle fisiopatologie retiniche. La ricerca di soluzioni bioingegneristiche per il recupero della funzionalità della retina in condizioni fisiopatologiche, coinvolge differenti aree di studio, come la medicina, la biologia, le neuroscienze, l’elettronica, la chimica dei materiali. In particolare, sono stati descritti i principali impianti retinali tra cui l’impianto di tipo epiretinale e subretinale, corticale e del nervo ottico. Tra gli impianti che ad oggi hanno ricevuto la certificazione dell’Unione Europea vi sono il sistema epiretinale Argus II (Second Sight Medical Products) e il dispositivo subretinale Alpha IMS (Retina Implant AG). Lo stato dell’arte delle retine artificiali, basate sulla tecnologia inorganica, trova tuttavia limitazioni legate principalmente a: necessità di un’alimentazione esterna, biocompatibilità a lungo termine, complessità dei processi di fabbricazione, la difficoltà dell’intervento chirurgico, il numero di elettrodi, le dimensioni e la geometria, l’elevata impedenza, la produzione di calore. Approcci bioingegneristici alternativi avanzano nel campo d’indagine della visione artificiale. Fra le prospettive di frontiera, sono attualmente in fase di studio le tecnologie optogenetiche, il cui scopo è la fotoattivazione di neuroni compromessi. Inoltre, vengono annoverate le tecnologie innovative che sfruttano le proprietà meccaniche, optoelettroniche e di biocompatibilità delle molecole di materiali organici polimerici. L’integrazione di funzioni fotoniche nell’elettronica organica offre nuove possibilità al campo dell’optoelettronica, che sfrutta le proprietà ottiche e elettroniche dei semiconduttori organici per la progettazione di dispositivi ed applicazioni optoelettronici nel settore dell’imaging e del rilevamento biomedico. La combinazione di tecnologie di tipo organico ed organico potrebbe aprire in prospettiva la strada alla realizzazione di dispositivi retinici ed impianti di nuova generazione.

Relevância:

30.00% 30.00%

Publicador:

Resumo:

Negli ultimi 20 anni il progresso tecnologico ha segnato un profondo cambiamento in svariati ambiti tra i quali quello della Sanità in cui hanno preso vita apparecchiature diagnostiche, cosiddette “digitali native”, come la Tomografia Computerizzata (TC), la Tomografia ad Emissione di Positroni (PET), la Risonanza Magnetica Nucleare (RMN), l’Ecografia. A differenza delle diagnostiche tradizionali, come ad esempio la Radiologia convenzionale, che forniscono come risultato di un esame un’immagine bidimensionale ricavata dalla semplice proiezione di una struttura anatomica indagata, questi nuovi sistemi sono in grado di generare scansioni tomografiche. Disporre di immagini digitali contenenti dati tridimensionali rappresenta un enorme passo in avanti per l’indagine diagnostica, ma per poterne estrapolare e sfruttare i preziosi contenuti informativi occorrono i giusti strumenti che, data la natura delle acquisizioni, vanno ricercati nel mondo dell’Informatica. A tal proposito il seguente elaborato si propone di presentare un software package per la visualizzazione, l’analisi e l’elaborazione di medical images chiamato 3D Slicer che rappresenta un potente strumento di cui potersi avvalere in differenti contesti medici. Nel primo capitolo verrà proposta un’introduzione al programma; Seguirà il secondo capitolo con una trattazione più tecnica in cui verranno approfondite alcune funzionalità basilari del software e altre più specifiche; Infine nel terzo capitolo verrà preso in esame un intervento di endoprotesica vascolare e come grazie al supporto di innovativi sistemi di navigazione chirurgica sia possibile avvalersi di 3D Slicer anche in ambiente intraoperatorio

Relevância:

30.00% 30.00%

Publicador:

Resumo:

Le numerose osservazioni compiute a partire dagli anni `30 confermano che circa il 26% dell'Universo è costituito da materia oscura. Tale materia ha la particolarità di interagire solo gravitazionalmente e debolmente: essa si presenta massiva e neutra. Tra le numerose ipotesi avanzate riguardanti la natura della materia oscura una delle più accreditate è quella delle WIMP (Weakly Interacting Massive Particle). Il progetto all'avanguardia nella ricerca diretta delle WIMP è XENON presso i Laboratori Nazionali del Gran Sasso (LNGS). Tale esperimento è basato sulla diffusione elastica delle particelle ricercate su nuclei di Xeno: il rivelatore utilizzato è una TPC a doppia fase (liquido-gas). La rivelazione diretta di materia oscura prevede l'impiego di un rivelatore molto grande a causa della piccola probabilità di interazione e di ambienti a bassa radioattività naturale, per ridurre al minimo il rumore di fondo. Nell'ottica di migliorare la sensibilità del rivelatore diminuendo l'energia di soglia sono in fase di ricerca e sviluppo soluzioni alternative a quelle adottate attualmente. Una di tali soluzioni prevede l'utilizzo di fotorivelatori di tipo SiPM da affiancare ai normali PMT in uso. I fotorivelatori al silicio devono lavorare ad una temperatura di (circa 170 K) e devono rivelare fotoni di lunghezza d'onda di circa 175 nm. Il presente lavoro di tesi si colloca nell'ambito di tale progetto di ricerca e sviluppo. Lo scopo di tale lavoro è stato la scrittura di un programma DAQ in ambiente LabVIEW per acquisire dati per caratterizzare in aria fotorivelatori di tipo SiPM. In seguito con tale programma sono state effettuate misure preliminari di pedestallo da cui è stato possibile determinare l'andamento di guadagno e di dark rate al variare della tensione di alimentazione del SiPM. L'analisi dati è stata effettuata impiegando un programma scritto in C++ in grado di analizzare le forme d'onda acquisite dal programma LabVIEW.

Relevância:

30.00% 30.00%

Publicador:

Resumo:

Molti metodi di compressione lossless si basano sulle idee che nel 1977 i ricercatori israeliani Abraham Lempel e Jacob Ziv hanno presentato nell’articolo “A universal Algorithm for sequential Data Compression”. In questa tesi viene descritto il metodo di fattorizzazione LZ77, illustrato appunto da Lempel e Ziv, e vengono esposte le strutture dati fondamentali per la sua realizzazione. Sono inoltre descritti due algoritmi CPS1 e CPS2 che realizzano LZ77. Infine, sfruttando i dati raccolti sperimentalmente da Al-Haffedh et al. in “A Comparison of Index-Based Lempel-Ziv LZ77 Factorization Algorithms” [2012], gli algoritmi descritti vengono confrontati in termini di spazio e tempo.

Relevância:

30.00% 30.00%

Publicador:

Resumo:

Questa tesi nasce dal voler approfondire lo studio delle curve piane di grado 3 iniziato nel corso di Geometria Proiettiva. In particolare si andrà a studiare la legge di gruppo che si può definire su tali curve e i punti razionali di ordine finito appartenenti alle curve ellittiche. Nel primo capitolo si parla di equazioni diofantee, dell’Ultimo Teorema di Fermat, dell'equazione e della formula di duplicazione di Bachet. Si parla inoltre dello stretto rapporto tra la geometria, l'algebra e la teoria dei numeri nella teoria delle curve ellittiche e come le curve ellittiche siano importanti nella crittografia. Nel secondo capitolo vengono enunciate alcune definizioni, proposizioni e teoremi, riguardanti polinomi e curve ellittiche. Nel terzo capitolo viene introdotta la forma normale di una cubica. Nel quarto capitolo viene descritta la legge di gruppo su una cubica piana non singolare e la costruzione geometrica che porta ad essa; si vede il caso particolare della legge di gruppo per una cubica razionale in forma normale ed inoltre si ricavano le formule esplicite per la somma di due punti appartenenti ad una cubica. Nel capitolo cinque si iniziano a studiare i punti di ordine finito per una curva ellittica con la legge di gruppo dove l'origine è un flesso: vengono descritti e studiati i punti di ordine 2 e quelli di ordine 3. Infine, nel sesto capitolo si studiano i punti razionali di ordine finito qualsiasi: viene introdotto il concetto di discriminante di una cubica e successivamente viene enunciato e dimostrato il teorema di Nagell-Lutz.

Relevância:

30.00% 30.00%

Publicador:

Resumo:

Il sostantivo nelle costruzioni “идти в солдаты” è declinato all’accusativo. La sua animatezza in queste composizioni cambia nel seguente modo: diventa morfologicamente inanimato e sintatticamente parzialmente animato debole.

Relevância:

30.00% 30.00%

Publicador:

Resumo:

Questo elaborato si propone di dare un'idea generale del concetto di interlingua da un punto di vista teorico e pratico. Nel primo capitolo spiegherò il concetto di interlingua, ne ripercorro brevemente la storia e ne illustro le fasi di sviluppo nei bambini. Il secondo capitolo è incentrato sugli effetti che l'idea di interlingua ha sulla didattica mirata a sostenere il bambino nel suo percorso di apprendimento. Il terzo capitolo è dedicato alle rilevazioni fatte nel VII circolo di Forlì.

Relevância:

30.00% 30.00%

Publicador:

Resumo:

Il cancro della prostata (PCa) è il tumore maligno non-cutaneo più diffuso tra gli uomini ed è il secondo tumore che miete più vittime nei paesi occidentali. La necessità di nuove tecniche non invasive per la diagnosi precoce del PCa è aumentata negli anni. 1H-MRS (proton magnetic resonance spectroscopy) e 1H-MRSI (proton magnetic resonance spectroscopy imaging) sono tecniche avanzate di spettroscopia in risonanza magnetica che permettono di individuare presenza di metaboliti come citrato, colina, creatina e in alcuni casi poliammine in uno o più voxel nel tessuto prostatico. L’abbondanza o l’assenza di uno di questi metaboliti rende possibile discriminare un tessuto sano da uno patologico. Le tecniche di spettroscopia RM sono correntemente utilizzate nella pratica clinica per cervello e fegato, con l’utilizzo di software dedicati per l’analisi degli spettri. La quantificazione di metaboliti nella prostata invece può risultare difficile a causa del basso rapporto segnale/rumore (SNR) degli spettri e del forte accoppiamento-j del citrato. Lo scopo principale di questo lavoro è di proporre un software prototipo per la quantificazione automatica di citrato, colina e creatina nella prostata. Lo sviluppo del programma e dei suoi algoritmi è stato portato avanti all’interno dell’IRST (Istituto Romagnolo per lo Studio e la cura dei Tumori) con l’aiuto dell’unità di fisica sanitaria. Il cuore del programma è un algoritmo iterativo per il fit degli spettri che fa uso di simulazioni MRS sviluppate con il pacchetto di librerie GAMMA in C++. L’accuratezza delle quantificazioni è stata testata con dei fantocci realizzati all’interno dei laboratori dell’istituto. Tutte le misure spettroscopiche sono state eseguite con il nuovo scanner Philips Ingenia 3T, una delle machine di risonanza magnetica più avanzate per applicazioni cliniche. Infine, dopo aver eseguito i test in vitro sui fantocci, sono stati acquisiti gli spettri delle prostate di alcuni volontari sani, per testare se il programma fosse in grado di lavorare in condizioni di basso SNR.

Relevância:

30.00% 30.00%

Publicador:

Resumo:

In questo lavoro di tesi, si cerca di studiare una reazione in grado di generare doppi legami sulla catena polimerica di un fluoroelastomero e analizzare le caratteristiche del polimero così ottenuto. I siti di insaturazione generati potranno essere sfruttati per successive reazioni di funzionalizzazione del polimero o per un eventuale processo di vulcanizzazione radicalico. La reazione utilizzata consiste in una deidrofluorurazione in ambiente alcalino di un copolimero VDF/HFP di produzione industriale. Essa è stata condotta sia in un sistema bifasico, sia in una fase omogenea, a 24 tempi e temperature diversi. La formazione dei doppi legami è stata analizzata tramite spettroscopia di risonanza magnetica al nucleo di fluoro (19F-NMR) e spettroscopia infrarossa. La possibilità di poter sfruttare le insaturazioni generate è stata studiata mediante prove di reticolazione via perossido indotta da radiazione UV, radiazione visibile ed energia termica. Nei primi due casi, il fenomeno è stato monitorato con spettri IR e UV-Vis, nel secondo caso la reazione è stata seguita per via reometrica (ODR: Oscillating Disk Reometer). Il lavoro è stato svolto in collaborazione con Elastomers Union srl, azienda con stabilimento di produzione a Castel Guelfo, specializzata nella preparazione di compound a base fluoroelastomerica e fluorosiliconica.

Relevância:

30.00% 30.00%

Publicador:

Resumo:

Nell'ottica di un futuro riprogetto, totale o parziale, del ventilatore della galleria del vento del progetto CICLoPE dell'Università di Bologna, è stato messo a punto, grazie a modelli matematici di letteratura, un algoritmo per la determinazione della geometria delle pale di un fan. La procedura si basa su ipotesi di incompressibilità e assenza di vortici di estremità ed è in grado di fornire la geometria del ventilatore una volta che sono state fissate: le condizioni richieste nella sezione di test, l'efficienza del tunnel e alcune proprietà del ventilatore stesso (ad esempio tipologia di profilo aerodinamico e numero di pale). L'algoritmo è in grado di lavorare solamente con la configurazione ventilatore seguito da profili raddrizzatori, ma è in previsione un'estensione che consentirà di studiare anche la configurazione a fan controrotanti (come quella del CICLoPE). Con questo software sono state progettate numerose soluzioni diverse per studiare il legame tra rendimento e geometria del ventilatore. Inoltre sono stati individuati i parametri che permettono di ottenere una pala con rastremazione e svergolatura trascurabili, con lo scopo di abbassare i costi del manufatto. In particolare è stato dimostrato come le configurazioni con diametro della nacelle grande (superiore al 65\% del diametro della sezione di potenza) siano particolarmente adatte a fornire rendimenti alti con la minima complicatezza della pala. Per quanto riguarda l'efficienza aerodinamica del profilo, i test comparativi indicano che questo parametro influisce relativamente poco sul rendimento del macchinario ma modifica profondamente la geometria della pala. Efficienze elevate tendono, secondo lo studio, a richiedere pale estremamente rastremate e poco svergolate; questo porta a preferire l'adozione di profili mediamente efficienti ma dall'ampio intervallo operativo in termini di angolo di attacco.

Relevância:

30.00% 30.00%

Publicador:

Resumo:

Si è calcolata la percentuale di metalli rimossi (R%) da fly ash e scarti industriali ceramici sottoposti a vari tipi di leaching con acqua deionizzata, acido solforico (pH1), attacco alcalino (pH14) e trattamento combinato acido-alcalino. Il parametro R è molto importante perché è in grado di fornire un’indicazione riguardo l’effettiva efficacia di un tipo di leaching rispetto ad un altro. Così facendo è possibile valutare la reale fattibilità del recupero di materie prime critiche (secondo la Commissione Europea) da questi rifiuti. Per quanto riguarda il recupero da fly ash, il trattamento con leaching acido si dimostra il più valido per numero di elementi e percentuale di recupero. Tuttavia, anche se il leaching combinato per certi aspetti può sembrare migliore, bisogna anche considerare i costi di lavorazione, che in questo caso aumenterebbero sensibilmente. Per quanto riguarda gli scarti ceramici, è il leaching combinato a mostrare il miglior potenziale di rimozione dei metalli critici, sia in termini di percentuali che per il numero di elementi rimossi.

Relevância:

30.00% 30.00%

Publicador:

Resumo:

ALMA MASTER STUDIORUM - UNIVERSITÀ DI BOLOGNA CAMPUS DI CESENA SCUOLA DI AGRARIA E MEDICINA VETERINARIA CORSO DI LAUREA IN SCIENZE E TECNOLOGIE ALIMENTARI Impiego di ingredienti funzionali nel rallentamento del raffermamento in prodotti da forno Relazione finale in Tecnologia dei Cereali e Derivati Relatore Dr. Giangaetano Pinnavaia Correlatrice Dr.ssa Federica Balestra Presentato da Caterina Azzarone Sessione II° Anno Accademico 2014/2015 Introduzione La focaccia è un prodotto lievitato da forno molto diffuso e consumato in tutta Italia. Essendo un prodotto fresco è soggetta al raffermamento. Lo scopo della sperimentazione è stato quello di valutare l’influenza di un amido waxy e di un enzima sulle caratteristiche chimico-fisiche e sensoriali di un prodotto da forno tipo focaccia durante lo stoccaggio. Materiali e metodi Le focacce sono state realizzate addizionando alla formulazione degli ingredienti in grado di contrastare il fenomeno del raffermamento: il Panenzyme AM 100 allo 0,005% (E5)e 0,01%(E10); e il Novation TM 2700 (amido di mais waxy) al 2.5%(N2.5) e 5%(N5). I campioni sono stati posti a confronto con un campione di controllo (C) I campioni sono stati stoccati in cella termostatata a 5C° e 50% UR. Le analisi sono state effettuate rispettivamente dopo 1,2,3,7 e 10 giorni dalla preparazione. Sull’impasto è stato valutato lo sviluppo in volume ogni 30 minuti durante la lievitazione (2h) a 36C° e 86% UR. Sulle focacce sono state effettuate le seguenti determinazioni analitiche: • Analisi dei gas nello spazio di testa delle confezioni. • La determinazione dell’umidità • Texture Profile Analysis (TPA) test • Test di rilassamento (Hold until Time test) • L’analisi sensoriale effettuata sia dopo 1 giorno (T1) sia dopo 10 giorni di conservazione (T10). Conclusioni In particolare, il campione addizionato con enzima in percentuale dello 0,005% (E5) mostra le caratteristiche chimico-fisiche migliori al termine del periodo di conservazione, presentando il valore più elevato di umidità, il valore inferiore di durezza e maggiore di elasticità valutati strumentalmente. Anche a livello sensoriale il campione E5 presenta punteggi molto elevati. Sono state trovate, inoltre, interessanti correlazioni tra i dati dell’analisi sensoriale e quelli ottenuti dai test strumentali. Il campione realizzato con il 2.5% di amido di mais waxy (N2.5) nonostante abbia presentato a fine conservazione valori di umidità e di elasticità inferiori e risultasse più duro rispetto al campione di controllo (C), ha ottenuto i punteggi più elevati nel test sensoriale, mentre nei confronti del campione con una percentuale maggiore di amido di mais waxy (N5) è risultato migliore per tutti i parametri valutati. Si deduce che l’utilizzo di NOVATION 2007 al 2.5% e PANEENZYME AM100 allo 0,005% sono stati in grado di migliorare le caratteristiche strutturali e sensoriali del prodotto durante la conservazione, risultando il secondo il migliore in assoluto