969 resultados para Gravidade (Fisica)
Resumo:
Two lectins, called lanceolin and stenodactylin, were purified by affinity chromatography on CL Sepharose 6B from the caudices of the Passifloraceae Adenia lanceolata and Adenia stenodactyla, respectively. They are glycoproteins with Mw of 61,243 (lanceolin) and 63,131 daltons (stenodactylin), consisting of an enzymatic A chain linked to a larger B chain with lectin properties, with N-terminal amino acid sequences similar to that of volkensin, the toxic lectin from Adenia volkensii. These two lectins agglutinate red blood cells, inhibit protein synthesis in a cell-free system as well as in whole cells, and depurinate ribosomes and DNA, but not tRNA or poly(A). They are highly toxic to cells, in which they induce apoptosis and strongly inhibit protein synthesis, and to mice, with LD50s 8.16 mg/kg (lanceolin) and 2.76 mg/kg (stenodactylin) at 48 hours after administration. Thus, lanceolin and stenodactylin have all the properties of the toxic type 2 ribosomeinactivating proteins (RIPs). Further experiments were conducted in order to clarify the effects of these RIPs in cells. We investigated the cronological relationship between cytotoxic activity, indirectly evaluated as inhibition of protein synthesis, and loss of cell viability in NB100 cell line. The induction of apoptosis was assessed by determining caspases 3 and 7 levels, which increase 8-16 hours earlier than the beginning of protein synthesis inhibition. This suggest that the arrest of protein synthesis is not a central event in the pathway of cell poisoning by RIPs. The high toxicity and the induction of cell death only by apoptosis and not by necrosis in two muscular cell lines (TE671 and RD/18) suggest that lanceolin and stenodactylin may be potential candidates for experimental chemoablation in strabism and blepharospasm. These results show that lanceolin and stenodactylin are amongst the most potent toxins of plant origin.
Resumo:
Negli ultimi vent’anni sono state proposte al livello internazionale alcune analisi dei problemi per le scienze nella scuola e diverse strategie per l’innovazione didattica. Molte ricerche hanno fatto riferimento a una nuova nozione di literacy scientifica, quale sapere fondamentale dell’educazione, indipendente dalle scelte professionali successive alla scuola. L’ipotesi di partenza di questa ricerca sostiene che alcune di queste analisi e l’idea di una nuova literacy scientifica di tipo non-vocazionale mostrino notevoli limiti quando rapportate al contesto italiano. Le specificità di quest’ultimo sono state affrontate, innanzitutto, da un punto di vista comparativo, discutendo alcuni documenti internazionali sull’insegnamento delle scienze. Questo confronto ha messo in luce la difficoltà di ottenere un insieme di evidenze chiare e definitive sui problemi dell’educazione scientifica discussi da questi documenti, in particolare per quanto riguarda i dati sulla crisi delle vocazioni scientifiche e sull’attitudine degli studenti verso le scienze. Le raccomandazioni educative e alcuni progetti curricolari internazionali trovano degli ostacoli decisivi nella scuola superiore italiana anche a causa di specificità istituzionali, come particolari principi di selezione e l’articolazione dei vari indirizzi formativi. Il presente lavoro si è basato soprattutto su una ricostruzione storico-pedagogica del curricolo di fisica, attraverso l’analisi delle linee guida nazionali, dei programmi di studio e di alcuni rappresentativi manuali degli ultimi decenni. Questo esame del curricolo “programmato” ha messo in luce, primo, il carattere accademico della fisica liceale e la sua debole rielaborazione culturale e didattica, secondo, l’impatto di temi e problemi internazionali sui materiali didattici. Tale impatto ha prodotto dei cambiamenti sul piano delle finalità educative e degli strumenti di apprendimento incorporati nei manuali. Nonostante l’evoluzione di queste caratteristiche del curricolo, tuttavia, l’analisi delle conoscenze storico-filosofiche utilizzate dai manuali ha messo in luce la scarsa contestualizzazione culturale della fisica quale uno degli ostacoli principali per l’insegnamento di una scienza più rilevante e formativa.
Resumo:
Il presente lavoro si rivolge all’analisi del ruolo delle forme metaforiche nella divulgazione della fisica contemporanea. Il focus è sugli aspetti cognitivi: come possiamo spiegare concetti fisici formalmente complessi ad un audience di non-esperti senza ‘snaturarne’ i significati disciplinari (comunicazione di ‘buona fisica’)? L’attenzione è sulla natura stessa della spiegazione e il problema riguarda la valutazione dell’efficacia della spiegazione scientifica a non-professionisti. Per affrontare tale questione, ci siamo orientati alla ricerca di strumenti formali che potessero supportarci nell’analisi linguistica dei testi. La nostra attenzione si è rivolta al possibile ruolo svolto dalle forme metaforiche nella costruzione di significati disciplinarmente validi. Si fa in particolare riferimento al ruolo svolto dalla metafora nella comprensione di nuovi significati a partire da quelli noti, aspetto fondamentale nel caso dei fenomeni di fisica contemporanea che sono lontani dalla sfera percettiva ordinaria. In particolare, è apparsa particolarmente promettente come strumento di analisi la prospettiva della teoria della metafora concettuale. Abbiamo allora affrontato il problema di ricerca analizzando diverse forme metaforiche di particolare rilievo prese da testi di divulgazione di fisica contemporanea. Nella tesi viene in particolare discussa l’analisi di un case-study dal punto di vista della metafora concettuale: una analogia di Schrödinger per la particella elementare. I risultati dell’analisi suggeriscono che la metafora concettuale possa rappresentare uno strumento promettente sia per la valutazione della qualità delle forme analogiche e metaforiche utilizzate nella spiegazione di argomenti di fisica contemporanea che per la creazione di nuove e più efficaci metafore. Inoltre questa prospettiva di analisi sembra fornirci uno strumento per caratterizzare il concetto stesso di ‘buona fisica’. Riteniamo infine che possano emergere altri risultati di ricerca interessanti approfondendo l’approccio interdisciplinare tra la linguistica e la fisica.
Resumo:
Negli ultimi decenni sono stati studiati sul mar Mediterraneo dei fenomeni con caratteristiche comuni a quelle dei cicloni tropicali, chiamati medicane. L'obiettivo principale di questa tesi è quello di migliorare le attuali conoscenze sui medicane utilizzando un approccio di tipo satellitare per ottenere un algoritmo di detection. Per tale ragione sono stati integrati dati di diverse tipologie di sensori satellitari e del modello numerico WRF. Il sensore SEVIRI ha fornito misure di TB a 10.8μm e informazioni sulla distribuzione del vapor d’acqua atmosferico attraverso i due canali a 6.2 e 7.3 μm. I sensori AMSU–B/MHS hanno fornito informazioni sulle proprietà delle nubi e sulla distribuzione verticale del vapor d’acqua atmosferico attraverso le frequenze nelle microonde nell’intervallo 90-190 GHz. I canali a 183.31 GHz, sono stati utilizzati per alimentare gli algoritmi 183-WSL, per la stima delle precipitazioni, e MWCC, per la classificazione del tipo di nubi. Infine, le simulazioni tramite modello WRF hanno fornito i dati necessari per l’analisi dei campi di vento e di vorticità nella zona interessata dal ciclone. Lo schema computazione a soglie di sensibilità dell’algoritmo di detection è stato realizzato basandosi sui dati del medicane “Rolf” che, nel novembre 2011, ha interessato la zona del Mediterraneo occidentale. Sono stati, inoltre, utilizzati i dati di fulminazione della rete WWLLN, allo scopo di identificare meglio la fase di innesco del ciclone da quella matura. La validità dell’algoritmo è stata successivamente verificata su due casi studio: un medicane che nel settembre 2006 ha interessato la Puglia e un MCS sviluppatosi sulla Sicilia orientale nell'ottobre 2009. I risultati di questo lavoro di tesi da un lato hanno apportato un miglioramento delle conoscenze scientifiche sui cicloni mediterranei simil-tropicali, mentre dall’altro hanno prodotto una solida base fisica per il futuro sviluppo di un algoritmo automatico di riconoscimento per sistemi di tipo medicane.
Resumo:
In questo elaborato sono stati analizzati i dati raccolti nel Corso-Laboratorio “L’esperimento più bello”, realizzato nel periodo marzo-aprile 2013 nell'ambito delle attività del Piano Lauree Scientifiche del Dipartimento di Fisica e Astronomia di Bologna. Il Corso, frequentato da studenti volontari del quinto anno di Liceo Scientifico, era finalizzato ad introdurre concetti di Fisica Quantistica seguendo, come filo conduttore, l’esperimento di interferenza con elettroni singoli e le sue varianti. I principali dati considerati e analizzati riguardano le risposte degli studenti a questionari proposti a fine Corso per avere un riscontro sul tipo di coinvolgimento e sul livello di comprensione raggiunto. L’analisi è stata condotta con l’obiettivo specifico di valutare come gli studenti si siano posti di fronte ad alcuni approfondimenti formali sviluppati per interpretare gli esperimenti e come abbiano colto i concetti trattati, ritenuti necessari per entrare nel “nuovo modo di vedere il mondo della quantistica”: il concetto di stato, sovrapposizione, ampiezza di probabilità, entanglement.
Resumo:
Obiettivo della tesi è sviluppare riflessioni per una proposta d’insegnamento inerente episodi significativi nella formulazione del Modello Standard e rivolta principalmente a studenti universitari del corso magistrale di “Storia della fisica”. Il lavoro di tesi è incentrato su un’analisi di articoli originali degli anni ’60, mirata a evidenziare il significato assunto dalla simmetria nella fisica del XX e XXI secolo, ovvero quello di principio alla base della formulazione di teorie fisiche; nello specifico, ci si è focalizzati sull’analisi di un episodio di particolare interesse culturale nella storia della fisica: la formulazione dell’ Eightfold Way (“Via dell’Ottetto”) sulla base del gruppo di simmetria SU(3) e la conseguente ipotesi sull'esistenza dei quark.
Resumo:
Il plasma, quarto stato della materia, rappresenta un gas ionizzato in cui ioni ed elettroni si muovono a diverse energie sotto l’azione di un campo elettro-magnetico applicato dall’esterno. I plasmi si dividono in plasmi di equilibrio e di non equilibrio termodinamico, quest’ultimi sono caratterizzati da un’alta temperatura elettronica (oltre 10000 K) e da una bassa temperatura traslazionale degli ioni e delle specie neutre (300-1000 K). I plasmi di non equilibrio trovano largo impiego nella microelettronica, nei processi di polimerizzazione, nell’industria biomedicale e del packaging, consentendo di effettuare trattamenti di sterilizzazione e attivazione superficiale. Il lavoro di tesi è incentrato sui processi di funzionalizzazione e polimerizzazione superficiale con l’obbiettivo di realizzare e caratterizzare sorgenti di plasma di non equilibrio a pressione atmosferica operanti in ambiente controllato. È stata realizzata una sorgente plasma operante a pressione atmosferica e in ambiente controllato per realizzare trattamenti di modifica superficiale e di polimerizzazione su substrati polimerici. L’efficacia e l’omogeneità dei trattamenti eseguiti sono stati valutati tramite misura dell’angolo di contatto. La caratterizzazione elettrica ha consentito di determinare i valori di densità di energia superficiale trasferita sui substrati al variare delle condizioni operative. Lo strato depositato durante il processo di polimerizzazione è stato analizzato qualitativamente tramite l’analisi chimica in spettroscopia infrarossa. L’analisi delle prove di funzionalizzazione dimostra l’uniformità dei processi plasma eseguiti; inoltre i valori dell’angolo di contatto misurati in seguito ai trattamenti risultano confrontabili con la letteratura esistente. Lo studio dei substrati trattati in atmosfera satura d’azoto ha rivelato una concentrazione superficiale di azoto pari al 3% attribuibile alla presenza di ammine, ammine protonate e gruppi ammidici; ciò conferma la bontà della soluzione realizzata e dei protocolli operativi adottati per la funzionalizzazione delle superfici. L’analisi spettroscopica dei trattamenti di polimerizzazione, ha fornito spettri IR confrontabili con la letteratura esistente indicando una buona qualità del polimero depositato (PEG). I valori misurati durante la caratterizzazione elettrica della sorgente realizzata risulteranno fondamentali in futuro per l’ottimizzazione del dispositivo. I dati raccolti infatti, determineranno le linee guida per il tailoring dei trattamenti plasma e per lo sviluppo della sorgente. Il presente lavoro di tesi, pur prendendo in esame una piccola parte delle applicazioni industriali dei plasmi non termici, conferma quanto queste siano pervasive nei comuni processi industriali evidenziandone le potenzialità e i numerosi campi d’applicazione. La tecnologia plasma è destinata ad essere imprescindibile per la ricerca di soluzioni innovative ai limiti dei processi tradizionali.
Resumo:
L’ictus è un importante problema di salute pubblica, è causa di morte e disabilità nella popolazione anziana. La necessità di strategie di prevenzione secondaria e terziaria per migliorare il funzionamento post-ictus e prevenire o ritardare altre condizioni disabilitanti, ha portato l’Italia a sviluppare un intervento di Attività Fisica Adattata (AFA) per l’ictus, che permettesse di migliorare gli esiti della riabilitazione. Obiettivo dello studio è di valutare se l’AFA unita all’Educazione Terapeutica (ET), rispetto al trattamento riabilitativo standard, migliora il funzionamento e la qualità di vita in pazienti con ictus. Studio clinico non randomizzato, in cui sono stati valutati 229 pazienti in riabilitazione post-ictus, 126 nel gruppo sperimentale (AFA+ET) e 103 nel gruppo di controllo. I pazienti sono stati valutati al baseline, a 4 e a 12 mesi di follow-up. Le misure di esito sono il cambiamento a 4 mesi di follow-up (che corrisponde a 2 mesi post-intervento nel gruppo sperimentale) di: distanza percorsa, Berg Balance Scale, Short Physical Performance Battery, e Motricity Index. Le variabili misurate a 4 e a 12 mesi di follow-up sono: Barthel Index, Geriatric Depression Scale, SF-12 e Caregiver Strain Index. La distanza percorsa, la performance fisica, l’equilibrio e il punteggio della componente fisica della qualità di vita sono migliorate a 4 mesi nel gruppo AFA+ET e rimasti stabili nel gruppo di controllo. A 12 mesi di follow-up, il gruppo AFA+ET ottiene un cambiamento maggiore, rispetto al gruppo di controllo, nell’abilità di svolgimento delle attività giornaliere e nella qualità di vita. Infine il gruppo AFA+ET riporta, nell’ultimo anno, un minor numero di fratture e minor ricorso a visite riabilitative rispetto al gruppo di controllo. I risultati confermano che l’AFA+ET è efficace nel migliorare le condizioni cliniche di pazienti con ictus e che gli effetti, soprattutto sulla riabilitazione fisica, sono mantenuti anche a lungo termine.
Resumo:
Valutazione della vulnerabilità sismica di una struttura mista in muratura e calcestruzzo armato esistente. Caratterizzazione meccanica dei materiali mediante prove diagnostiche. Modellazione strutturale attraverso un programma agli elementi finiti (SAP2000), verifiche statiche e sismiche condotte secondo le attuali normative italiane (NTC2008). Caso di studio: facoltà di Fisica a Bologna (A. Righi)