182 resultados para polinomi trasposizione didattica definizione schemi di definizione
Resumo:
Negli ultimi vent’anni sono state proposte al livello internazionale alcune analisi dei problemi per le scienze nella scuola e diverse strategie per l’innovazione didattica. Molte ricerche hanno fatto riferimento a una nuova nozione di literacy scientifica, quale sapere fondamentale dell’educazione, indipendente dalle scelte professionali successive alla scuola. L’ipotesi di partenza di questa ricerca sostiene che alcune di queste analisi e l’idea di una nuova literacy scientifica di tipo non-vocazionale mostrino notevoli limiti quando rapportate al contesto italiano. Le specificità di quest’ultimo sono state affrontate, innanzitutto, da un punto di vista comparativo, discutendo alcuni documenti internazionali sull’insegnamento delle scienze. Questo confronto ha messo in luce la difficoltà di ottenere un insieme di evidenze chiare e definitive sui problemi dell’educazione scientifica discussi da questi documenti, in particolare per quanto riguarda i dati sulla crisi delle vocazioni scientifiche e sull’attitudine degli studenti verso le scienze. Le raccomandazioni educative e alcuni progetti curricolari internazionali trovano degli ostacoli decisivi nella scuola superiore italiana anche a causa di specificità istituzionali, come particolari principi di selezione e l’articolazione dei vari indirizzi formativi. Il presente lavoro si è basato soprattutto su una ricostruzione storico-pedagogica del curricolo di fisica, attraverso l’analisi delle linee guida nazionali, dei programmi di studio e di alcuni rappresentativi manuali degli ultimi decenni. Questo esame del curricolo “programmato” ha messo in luce, primo, il carattere accademico della fisica liceale e la sua debole rielaborazione culturale e didattica, secondo, l’impatto di temi e problemi internazionali sui materiali didattici. Tale impatto ha prodotto dei cambiamenti sul piano delle finalità educative e degli strumenti di apprendimento incorporati nei manuali. Nonostante l’evoluzione di queste caratteristiche del curricolo, tuttavia, l’analisi delle conoscenze storico-filosofiche utilizzate dai manuali ha messo in luce la scarsa contestualizzazione culturale della fisica quale uno degli ostacoli principali per l’insegnamento di una scienza più rilevante e formativa.
Resumo:
Introduzione:l’interferone (IFN) usato per l’eradicazione del virus dell’Epatite C, induce effetti collaterali anche riferibili alla sfera psichica. I dati sugli eventi avversi di tipo psichiatrico dei nuovi farmaci antivirali (DAA) sono limitati. Lo scopo di questo studio è di valutare lo sviluppo di effetti collaterali di tipo psichiatrico in corso di due distinti schemi di trattamento: IFN-peghilato e ribavirina [terapia duplice (standard o SOC)]; DAA in associazione a IFN-peghilato e ribavirina (terapia triplice). Metodi: pazienti HCV+ consecutivi seguiti presso l’Ambulatorio delle Epatiti Croniche della Semeiotica Medica del Dipartimento di Scienze Mediche e Chirurgiche dell’Università di Bologna in procinto di intraprendere un trattamento antivirale a base di IFN, sottoposti ad esame psicodiagnostico composto da intervista clinica semistrutturata e test autosomministrati: BDI, STAXI-2, Hamilton Anxiety Scale, MMPI – 2. Risultati: Sono stati arruolati 84 pazienti, 57/84 (67.9%) nel gruppo in triplice e 27/84 nel gruppo SOC. Quasi tutti i pazienti arruolati hanno eseguito l’intervista clinica iniziale (82/84; 97.6%), mentre scarsa è stata l’aderenza ai test (valori missing>50%). Ad eccezione dell’ansia, la prevalenza di tutti gli altri disturbi (irritabilità, astenia, disfunzioni neurocognitive, dissonnia) aumentava in corso di trattamento. In corso di terapia antivirale 43/84 (51.2%) hanno avuto bisogno di usufruire del servizio di consulenza psichiatrica e 48/84 (57.1%) hanno ricevuto una psicofarmacoterapia di supporto, senza differenze significative fra i due gruppi di trattamento. Conclusioni : uno degli elementi più salienti dello studio è stata la scarsa aderenza ai test psicodiagnostici, nonostante l’elevata prevalenza di sintomi psichiatrici. I risultati di questo studio oltre ad evidenziare l’importanza dei sintomi psichiatrici in corso di trattamento e la rilevanza della consulenza psicologica e psichiatrica per consentire di portare a termine il ciclo terapeutico previsto (migliorandone l’efficacia), ha anche dimostrato che occorre ripensare gli strumenti diagnostici adattandoli probabilmente a questo specifico target.
Resumo:
La presente tesi descrive l’implementazione in Java di un algoritmo per il ragionamento giuridico che cattura due sue importanti peculiarità: la defeasibility del ragionamento normativo e il concetto di tempo. “Defeasible” significa “ritrattabile” e sta ad indicare, appunto, quegli schemi di ragionamento nei quali è possibile rivedere o ritrattare le conclusioni tratte precedentemente. Il tempo è essenziale per un’accurata rappresentazione degli scenari presenti nel mondo reale e in particolare per gli scenari giuridici. I profili temporali delle norme sono essenzialmente due: (i) tempo esterno della norma, cioè il periodo durante il quale la norma è valida cioè appartiene al sistema giuridico; (ii) tempo interno della norma che fa riferimento al periodo in cui la norma si applica. In particolare quest’ultimo periodo di tempo coincide con il periodo in cui le condizioni presenti nella norma devono presentarsi affinché essa produca i suoi effetti. Inoltre, nella tesi viene presentata un’estensione della logica defeasible in grado di distinguere tra regole con effetti persistenti, che valgono non solo per l’istante in cui si verificano le premesse ma anche per ogni istante successivo, e regole con effetti transitori, che valgono per un singolo istante. L’algoritmo presentato in questa tesi presenta una complessità lineare nelle dimensioni della teoria in ingresso e può interagire con le applicazioni del web semantico poiché elabora teorie scritte in Rule-ML, un linguaggio basato su XML per la rappresentazione di regole.
Resumo:
Le ragioni della delocalizzazione sono molteplici e di differente natura. Si delocalizza, in primo luogo, per ragioni di stampo economico, finanziario eccetera, ma questa spinta naturale alla delocalizzazione è controbilanciata, sul piano strettamente tributario, dall’esigenza di preservare il gettito e da quella di controllare la genuinità della delocalizzazione medesima. E’ dunque sul rapporto tra “spinte delocalizzative” dell’impresa, da un lato, ed esigenze “conservative” del gettito pubblico, dall’altro, che si intende incentrare il presente lavoro. Ciò alla luce del fatto che gli strumenti messi in campo dallo Stato al fine di contrastare la delocalizzazione (più o meno) artificiosa delle attività economiche devono fare i conti con i principi comunitari introdotti con il Trattato di Roma e tratteggiati negli anni dalla giurisprudenza della Corte di Giustizia. In quest’ottica, la disciplina delle CFC costituisce un ottimo punto di partenza per guardare ai fenomeni di produzione transnazionale della ricchezza e agli schemi di ordine normativo preposti alla tassazione di codesta ricchezza. Ed infatti, le norme sulle CFC non fanno altro che omogeneizzare un sistema che, altrimenti, sarebbe lasciato alla libera iniziativa degli uffici fiscali. Tale “normalizzazione”, peraltro, giustifica le esigenze di apertura che sono incanalate nella disciplina degli interpelli disapplicativi. Con specifico riferimento alla normativa CFC, assumono particolare rilievo la libertà di stabilimento ed il principio di proporzionalità anche nella prospettiva del divieto di abuso del diritto. L’analisi dunque verterà sulla normativa CFC italiana con l’intento di comprendere se codesta normativa, nelle sue diverse sfaccettature, possa determinare situazioni di contrasto con i principi comunitari. Ciò anche alla luce delle recenti modifiche introdotte dal legislatore con il d.l. 78/2009 in un quadro normativo sempre più orientato a combattere le delocalizzazioni meramente fittizie.
Resumo:
Il lavoro di ricerca è rivolto ad indagare l’emersione di schemi di variazione comuni all’arte e al design, limitatamente al contesto italiano e in un arco di tempo che va dalla metà degli anni Sessanta del secolo scorso a oggi. L’analisi vuole rintracciare, mediante l’applicazione della metodologia fenomenologica, un sentire condiviso tra le due discipline e, nel pieno rispetto dei relativi linguaggi e con nessuna volontà di sudditanza degli uni rispetto agli altri, individuare i rapporti di corrispondenza omologica capaci di mettere in luce lo spirito del tempo che le ha generate. La ricerca si pone l’obiettivo di estendere gli studi sul contemporaneo attraverso un’impostazione che intende applicare gli strumenti metodologici della critica d’arte all’evoluzione stilistica delle tendenze del design italiano. Non si è voluto redigere una “storia” del design italiano ma, considerata anche l’ampiezza dell’argomento, si è necessariamente proceduto a delimitare il territorio di applicazione scegliendo di prendere in considerazione il solo settore del design dell’arredo. Si è dunque optato per una visione globale delle vicende del design del prodotto, tesa ad indagare gli snodi principali, concentrando pertanto l’analisi su alcuni protagonisti della cultura del progetto, ossia su quelle figure risultate dominanti nel proprio tempo perché capaci con il loro lavoro di dare un contribuito determinante alla comprensione delle fasi evolutive del design italiano. Gli strumenti utili a condurre l’analisi provengono principalmente dalla metodologia binaria individuata dallo storico dell’arte Heinrich Wölfflin e dagli studi di Renato Barilli, il cui impianto culturologico ha fornito un indispensabile contributo al processo di sistematizzazione dei meccanismi di variazione interni alle arti; sia quelli di tipo orizzontale, di convergenza reciproca con gli altri saperi, che di tipo verticale, in rapporto cioè con le scoperte scientifiche e tecnologiche della coeva cultura materiale.
Resumo:
La valutazione dell’intensità secondo una procedura formale trasparente, obiettiva e che permetta di ottenere valori numerici attraverso scelte e criteri rigorosi, rappresenta un passo ed un obiettivo per la trattazione e l’impiego delle informazioni macrosismiche. I dati macrosismici possono infatti avere importanti applicazioni per analisi sismotettoniche e per la stima della pericolosità sismica. Questa tesi ha affrontato il problema del formalismo della stima dell’intensità migliorando aspetti sia teorici che pratici attraverso tre passaggi fondamentali sviluppati in ambiente MS-Excel e Matlab: i) la raccolta e l’archiviazione del dataset macrosismico; ii), l’associazione (funzione di appartenenza o membership function) tra effetti e gradi di intensità della scala macrosismica attraverso i principi della logica dei fuzzy sets; iii) l’applicazione di algoritmi decisionali rigorosi ed obiettivi per la stima dell’intensità finale. L’intera procedura è stata applicata a sette terremoti italiani sfruttando varie possibilità, anche metodologiche, come la costruzione di funzioni di appartenenza combinando le informazioni macrosismiche di più terremoti: Monte Baldo (1876), Valle d’Illasi (1891), Marsica (1915), Santa Sofia (1918), Mugello (1919), Garfagnana (1920) e Irpinia (1930). I risultati ottenuti hanno fornito un buon accordo statistico con le intensità di un catalogo macrosismico di riferimento confermando la validità dell’intera metodologia. Le intensità ricavate sono state poi utilizzate per analisi sismotettoniche nelle aree dei terremoti studiati. I metodi di analisi statistica sui piani quotati (distribuzione geografica delle intensità assegnate) si sono rivelate in passato uno strumento potente per analisi e caratterizzazione sismotettonica, determinando i principali parametri (localizzazione epicentrale, lunghezza, larghezza, orientazione) della possibile sorgente sismogenica. Questa tesi ha implementato alcuni aspetti delle metodologie di analisi grazie a specifiche applicazioni sviluppate in Matlab che hanno permesso anche di stimare le incertezze associate ai parametri di sorgente, grazie a tecniche di ricampionamento statistico. Un’analisi sistematica per i terremoti studiati è stata portata avanti combinando i vari metodi per la stima dei parametri di sorgente con i piani quotati originali e ricalcolati attraverso le procedure decisionali fuzzy. I risultati ottenuti hanno consentito di valutare le caratteristiche delle possibili sorgenti e formulare ipotesi di natura sismotettonica che hanno avuto alcuni riscontri indiziali con dati di tipo geologico e geologico-strutturale. Alcuni eventi (1915, 1918, 1920) presentano una forte stabilità dei parametri calcolati (localizzazione epicentrale e geometria della possibile sorgente) con piccole incertezze associate. Altri eventi (1891, 1919 e 1930) hanno invece mostrato una maggiore variabilità sia nella localizzazione dell’epicentro che nella geometria delle box: per il primo evento ciò è probabilmente da mettere in relazione con la ridotta consistenza del dataset di intensità mentre per gli altri con la possibile molteplicità delle sorgenti sismogenetiche. Anche l’analisi bootstrap ha messo in evidenza, in alcuni casi, le possibili asimmetrie nelle distribuzioni di alcuni parametri (ad es. l’azimut della possibile struttura), che potrebbero suggerire meccanismi di rottura su più faglie distinte.
Resumo:
Non può dirsi ancora raggiunta una completa, appagante e condivisa definizione di criminalità organizzata: eppure tale concetto viene ampiamente utilizzato, entrando nel linguaggio comune e –soprattutto- in quello normativo e giurisprudenziale. Attraverso il susseguirsi di numerosi interventi legislativi, abbiamo assistito alla progressiva elaborazione del c.d. doppio binario: di una normativa, cioè, ad hoc per i reati di criminalità organizzata, caratterizzata da un rilevante arretramento delle ordinarie soglie di garanzia previste dall’ordinamento giuridico. Alla luce di prioritarie esigenze di legalità si giustifica l’impellente necessità di giungere alla elaborazione di una precisa definizione di criminalità organizzata. A tale fine, nel corso del presente lavoro, sono stati esaminati i principali approcci definitori individuati a livello socio-criminologico, giurisprudenziale ed in ambito normativo, con particolare attenzione al diritto penale e processual-penalistico; si è inoltre proceduto all’analisi delle principali definizioni riscontrabili a livello comunitario ed internazionale.
Resumo:
L’unione di approcci differenti durante lo studio dei sistemi petroliferi, come l’accoppiamento dello studio delle emissioni in superficie con le analisi geochimiche e strutturali, è un aspetto principale nelle strategie di sviluppo per la ricerca degli idrocarburi. La presenza di acqua connata nelle sequenze sedimentarie profonde e la sua sovrappressione che viene generata dalle spesse coperture sedimentarie, incrementata inoltre dalla generazione di idrocarburi in profondità, sono fattori di controllo primari per la migrazione e l’emissione di fluidi in superficie. I risultati ottenuti da questo studio forniscono nuovi elementi per la comprensione del ruolo dello studio dei vulcani di fango nell’esplorazione petrolifera, e nuove importanti prove per la caratterizzazione dei sistemi petroliferi nelle aree considerate.
Resumo:
La Comunità Europea, alla luce dei recenti eventi alluvionali occorsi nei Paesi Membri ed al progressivo aumento dei danni economici da essi provocati, ha recentemente emanato una direttiva (Direttiva Europea 2007/60/CE, Flood Directive) per la valutazione e la predisposizione di piani di gestione del rischio idraulico alluvionale. Con riferimento a tale contesto l’attività di ricerca condotta si è concentrata sulla valutazione delle potenzialità offerte dalla modellistica numerico-idraulica mono e bidimensionale quale strumento per l’attuazione della Direttiva 2007/60. Le attività sono state affrontate ponendo particolare attenzione alla valutazione dei termini di incertezza che caratterizzano l’applicazione dei modelli numerico-idraulici, esaminando i possibili effetti di tale incertezza sulla mappatura della pericolosità idraulica. In particolare, lo studio si concentra su diversi tratti fluviali del corso medio inferiore del Fiume Po e si articola in tre parti: 1) analisi dell’incertezza connessa alla definizione delle scale di deflusso in una generica sezione fluviale e valutazione dei suoi effetti sulla calibrazione dei modelli numerici quasi-bidimensionali (quasi-2D); 2) definizione di mappe probabilistiche di allagamento per tratti fluviali arginati in presenza di tre sorgenti di incertezza: incertezza nelle condizioni al contorno di monte, nelle condizioni di valle e nell’identificazione delle eventuali brecce arginali; 3) valutazione dell’applicabilità di un modello quasi-2D per la definizione, a grande scala spaziale, di strategie alternative al tradizionale rialzo dei manufatti arginali per la mitigazione del rischio alluvionale associato a eventi di piena catastrofici. Le analisi condotte, oltre ad aver definito e valutato le potenzialità di metodologie e modelli idraulici a diversa complessità, hanno evidenziato l’entità e l’impatto dei più importanti elementi d’incertezza, sottolineando come la corretta mappatura della pericolosità idraulica debba sempre essere accompagnata da una valutazione della sua incertezza.
Resumo:
La presenza di Escherichia coli produttori di verocitotossine (VTEC o STEC) rappresenta una tra le più importanti cause di malattia alimentare attualmente presenti in Europa. La sua presenza negli allevamenti di animali destinati alla produzione di alimenti rappresenta un importante rischio per la salute del consumatore. In conseguenza di comuni contaminazioni che si realizzano nel corso della macellazione, della mungitura i VTEC possono essere presenti nelle carni e nel latte e rappresentano un grave rischio se la preparazione per il consumo o i processi di lavorazione non comportano trattamenti in grado d’inattivarli (es. carni crude o poco cotte, latte non pastorizzato, formaggi freschi a latte crudo). La contaminazione dei campi coltivati conseguente alla dispersione di letame o attraverso acque contaminate può veicolare questi stipiti che sono normalmente albergati nell’intestino di ruminanti (domestici e selvatici) e anche prodotti vegetali consumati crudi, succhi e perfino sementi sono stati implicati in gravi episodi di malattia con gravi manifestazioni enteriche e complicazioni in grado di causare quadri patologici gravi e anche la morte. Stipiti di VTEC patogeni ingeriti con gli alimenti possono causare sintomi gastroenterici, con diarrea acquosa o emorragica (nel 50% dei casi), crampi addominali, febbre lieve e in una percentuale più bassa nausea e vomito. In alcuni casi (circa 5-10%) l’infezione gastroenterica si complica con manifestazioni tossiemiche caratterizzate da Sindrome Emolitico Uremica (SEU o HUS) con anemia emolitica, insufficienza renale grave e coinvolgimento neurologico o con una porpora trombotica trombocitopenica. Il tasso di mortalità dei pazienti che presentano l’infezione da E. coli è inferiore all’1%. I dati forniti dall’ECDC sulle infezioni alimentari nel periodo 2006-2010 hanno evidenziato un trend in leggero aumento del numero di infezioni a partire dal 2007. L’obiettivo degli studi condotti è quello di valutare la prevalenza ed il comportamento dei VTEC per una analisi del rischio più approfondita.
Resumo:
Ogni anno in Europa milioni di tonnellate di cibo vengono gettate via. Una stima pubblicata dalla Commissione europea afferma che, nei 27 Stati membri, 89 milioni di tonnellate di cibo, o di 179 kg pro capite, vengono scartati. Lo spreco si verifica lungo tutta la catena di agro alimentare; la riduzione dei rifiuti alimentari è diventata una delle priorità dell'agenda europea. La ricerca si concentra su un caso studio, Last Minute Market, un progetto di recupero di sprechi alimentari. L'impatto di questo progetto dal punto di vista economico e ambientale è già stato calcolato. Quello che verrà analizzato è l'impatto di questa iniziativa sulla comunità e in particolare sul capitale sociale, definito come "l'insieme di norme e reti che consentono l'azione collettiva". Obiettivo del presente lavoro è, quindi, quello di eseguire, attraverso la somministrazione di un questionario a diversi stakeholder del progetto, un’analisi confrontabile con quella del 2009 e di verificare a distanza di cinque anni, se l'iniziativa Last Minute Market abbia prodotto una crescita di capitale sociale nella comunità interessata da questa iniziativa. Per riassumere l’influenza del progetto sul capitale sociale in un indice sintetico, viene calcolato quello che verrà chiamato indice di "affidabilità del progetto" (definito in statistica, la "capacità di un prodotto, un sistema o un servizio di fornire le prestazioni richieste, per un certo periodo di tempo in condizioni predeterminate").
Resumo:
La tesi approfondisce i profili processuale della responsabilità medica allo scopo di elaborare una proposta alternativa di gestione del contenzioso. Si esamina, altresì, il tema dei limiti di utilizzo della mediazione nelle controversie in cui vengono in gioco interessi di rilievo pubblicistico.