717 resultados para ellissoide inerzia equazioni Eulero moto Poinsot fenomeni giroscopici
Resumo:
L'integrazione multisensoriale è la capacità da parte del sistema nervoso centrale di integrare informazioni provenienti da diverse sorgenti sensoriali. In particolare, l'integrazione audio-visiva avviene anche nelle cortecce visive e acustiche, in principio ritenute puramente unisensoriali. L'integrazione audio-visiva non è un'abilità innata, ma si sviluppa progressivamente nel tempo sulla base dell'esperienza. In questa Tesi viene presentato un modello matematico di rete neurale in grado di simulare lo sviluppo in un ambiente multisensoriale dei neuroni delle cortecce primarie visive e uditive nei primi mesi di vita di un neonato, e gli effetti dell'integrazione audio-visiva successivi a tale addestramento. In particolare il modello vuole mostrare, a partire da una condizione basale in cui i neuroni visivi e acustici non sono in grado di discriminare spazialmente la posizione degli input esterni e in cui non sussiste alcuna correlazione tra le due aree corticali primarie visive e uditive, come l'addestramento migliori la precisione della percezione spaziale degli stimoli esterni e come si stabiliscano tra le due aree in esame dei collegamenti stabili a lungo termine. Terminato l'addestramento, si verifica se la rete sia in grado di riprodurre gli effetti di integrazione audio-visiva nella corteccia primaria, quali la "cattura" dello stimolo acustico da parte di quello visivo (ventriloquismo) e il rafforzamento della risposta neurale allo stimolo acustico se contemporaneamente accompagnato da uno stimolo visivo nella stessa posizione spaziale (enhancement). Il modello potrebbe essere utilizzato in futuro anche per simulare altri fenomeni illusori come il fenomeno offline del ventriloquismo e il ventriloquismo a livello temporale.
Resumo:
L'obiettivo della tesi è individuare gli strumenti più indicati per scrivere un documento a carattere tecnico-scientifico e creare la relativa presentazione multimediale. La scelta degli strumenti è il risultato di un’analisi delle problematiche specifiche. Tuttavia è impossibile fare delle considerazione relativamente a questi strumenti senza averli mai usati in pratica. E' stato quindi scelto un argomento tecnico scientifico come esempio: I quaternioni nella Computher Grafica. L'argomento è stato esposto in una breve dispensa scritta con LaTeX. Nella dispensa sono state inserite diverse immagini generate con Inkscape. La presentazione multimediale è stata realizzata con PowerPoint. Dopo una breve descrizione di ogni programma segue l’esposizione di come essi rispondano alle particolari esigenze di stesura di una presentazione scientifica.
Resumo:
Il presente lavoro di tesi si è svolto in collaborazione con il Consiglio Nazionale delle Ricerche - Istituto di Ricerca per la Protezione Idrogeologica di Padova CNR IRPI. Questo elaborato è finalizzato allo studio dei dissesti per frana che coinvolgono le opere d’arte stradali della S.S. 52 Carnica nella zona del Passo della Morte, tra i comuni di Forni di Sotto e Ampezzo, in provincia di Udine. La presenza di un’arteria viaria di primaria importanza, qual è la strada statale 52 Carnica che collega le province di Udine e Belluno, ha reso necessario un accurato studio idrogeologico. Lo studio mira principalmente ad individuare una possibile relazione tra la sorgente sita all’interno della Galleria di S. Lorenzo S.S. 52 e la galleria drenante posta al di sotto di quest’ultima per permettere la progettazione di eventuali ulteriori opere di mitigazione del rischio da frana. Il lavoro è suddiviso in tre parti: la prima, introduttiva, include una caratterizzazione geografica, geologica e morfologica dell’area di studio. La seconda descrive l’opera in esame - la galleria di S. Lorenzo S.S. 52 Carnica - e le criticità derivanti dalla complessità dell’area. Infine, la terza, fondamentale, comprende un studio idrogeologico svolto raccogliendo sul campo i dati indispensabili alle ricerche. La metodologia è caratterizzata da un’analisi statistica basata sulla cross-correlazione tra i dati di precipitazione e quelli di portata in continuo della sorgente e della galleria drenante. Infine, a fronte dei dati ottenuti, si è ricavato un modello concettuale dei complessi fenomeni idrogeologici che si sviluppano nell’area di Passo della Morte.
Resumo:
From several researchers it appears that Italian adolescents and young people are grown up with commercial television which is accused to contain too much violence, sex, reality shows, advertising, cartoons which are watched from 1 to 4 hours daily. Adolescents are also great users of mobile phones and spend a lot of time to use it. Their academic results are below the average of Ocse States. However the widespread use of communication technology and social networks display also another side of adolescents who engage in media activism and political movement such as Ammazzateci tutti!, Indymedia, Movimento 5 Stelle, Movimento No Tav. In which way does the world economic crisis -with the specific problems of Italy as the cutting founds for school, academic research and welfare, the corruption of political class, mafia and camorra organisation induce a reaction in our adolescents and young people? Several researches inform us about their use of internet in terms of spending time but, more important, how internet, and the web 2.0, could be an instrument for their reaction? What do they do online? How they do it? Which is the meaning of their presence online? And, has their online activity a continuity offline? The research aims are: 1. Trough a participant observation of Social Network profiles opened by 10 young active citizens, I would seek to understand which kind of social or political activities they engage in online as individuals and which is the meaning of their presence online. 2. To observe and understand if adolescents and young people have a continuity of their socio-political engagement online in offline activities and which kind of experiences it is. 3. Try to comprehend which was (or which were) the significant, learning experiences that convinced them about the potential of the web as tool for their activism.
Resumo:
Joaquín Camaño fu un gesuita della Provincia del Paraguay, vissuto nell' esilio italiano la maggior parte della sua vita dal 1767 al 1820. Il suo lavoro e la sua fama possono essere considerati di minore importanza se paragonati a molti altri gesuiti esiliati per ordine di Carlo III alla fine del XVIII secolo in Emilia-Romagna. Attraverso la mia ricerca approfondisco il ruolo di J. Camaño quale personaggio minore che entra nella vita degli altri espulsi tramite un dinamico network relazionale di cui è stato uno dei principali artefici. Il mio obiettivo è stato quello di studiare l'impatto che ebbero gli esuli gesuiti americani, attraverso la vita di Joaquin Camaño, sul mondo intellettuale italiano, europeo ed americano dopo l'espulsione del 1767. Egli, con i suoi studi, si inserisce nella rinnovata e vivace retorica del “Mondo Nuovo” che in quegli anni assume un grande dinamismo. Nato nella modesta città di La Rioja, in Argentina, si erge come un brillante cartografo, etnografo e linguista nel contesto dell'Illustrazione europea grazie alla sua particolare vita da missionario. Dopo l'espulsione, Joaquin Camaño, insieme ad altri numerosi confratelli americani, arriverà a Faenza, nello Stato Pontificio, dedicandosi allo studio della cartografia, dell'etnografia e delle lingue americane. Le sue ricerche si collocano in un momento nevralgico per la storia del pensiero linguistico-antropologico, quando l'osservazione diretta e la riflessione teorica dei fenomeni si misuravano con la grande varietà umana ormai riscontrata nel mondo.
Resumo:
La demolizione idrolitica delle pareti cellulari delle piante tramite enzimi lignocellulosici è quindi uno degli approcci più studiati della valorizzazione di scarti agricoli per il recupero di fitochimici di valore come secondary chemical building block per la chimica industriale. White rot fungi come il Pleurotus ostreatus producono una vasta gamma di enzimi extracellulari che degradano substrati lignocellulosici complessi in sostanze solubili per essere utilizzati come nutrienti. In questo lavoro abbiamo studiato la produzione di diversi tipi di enzimi lignocellulosici quali cellulase, xilanase, pectinase, laccase, perossidase e arylesterase (caffeoilesterase e feruloilesterase), indotte dalla crescita di Pleurotus ostreatus in fermentazione allo stato solido (SSF) di sottoprodotti agroalimentari (graspi d’uva, vinaccioli, lolla di riso, paglia di grano e crusca di grano) come substrati. Negli ultimi anni, SSF ha ricevuto sempre più interesse da parte dei ricercatori, dal momento che diversi studi per produzioni di enzimi, aromi, coloranti e altre sostanze di interesse per l' industria alimentare hanno dimostrato che SSF può dare rendimenti più elevati o migliorare le caratteristiche del prodotto rispetto alla fermentazione sommersa. L’utilizzo dei sottoprodotti agroalimentari come substrati nei processi SSF, fornisce una via alternativa e di valore, alternativa a questi residui altrimenti sotto/o non utilizzati. L'efficienza del processo di fermentazione è stato ulteriormente studiato attraverso trattamenti meccanici di estrusione del substrato , in grado di promuovere il recupero dell’enzima e di aumentare l'attività prodotta. Le attività enzimatiche prodotte dalla fermentazione sono strettamente dipendente della rimozione periodica degli enzimi prodotti. Le diverse matrici vegetali utilizzate hanno presentato diversi fenomeni induttivi delle specifiche attività enzimatiche. I processi SSF hanno dimostrato una buona capacità di produrre enzimi extracellulari in grado di essere utilizzati successivamente nei processi idrolitici di bioraffinazione per la valorizzazione dei prodotti agroalimentari.
Resumo:
Lo studio si inserisce all’interno del progetto THESEUS, il cui obiettivo primario è quello di fornire una metodologia integrata per la pianificazione di strategie di difesa sostenibile per la gestione dell’erosione costiera e delle inondazioni. Nel presente lavoro di tesi in particolare sono state esaminate le componenti biotiche e abiotiche della zona intertidale di 6 spiagge (Lido di Spina, Bellocchio, Lido di Dante, Cervia, Cesenatico, Cesenatico sud) lungo la costa emiliano-romagnola, diverse tra loro per caratteristiche morfodinamiche, per grado di antropizzazione, modalità di gestione ed interventi effettuati per contrastare i fenomeni di erosione costiera. Sono state quindi considerate porzioni di litorale in cui non sono presenti opere di difesa costiera rigide, quali pennelli e barriere, e dove sono quasi del tutto assenti strutture turistico-balneari, e tre siti più antropizzati per la presenza di strutture di difesa costiera o per attività inerenti il turismo. Lo scopo di questo lavoro consiste nella: 1) analisi delle comunità macrobentoniche della zona intertidale in termini di composizione tassonomica; 2) analisi delle comunità macrobentoniche in termini di gruppi funzionali o gruppi trofici, cioè specie che, all’interno della comunità, svolgono la stessa funzione ecologica; 3) relazione fra la struttura delle comunità e le caratteristiche abiotiche e morfodinamiche delle spiagge indagate. L’analisi dei dati ha mostrato come le comunità rinvenute a Bellocchio e Lido di Dante, sia in termini di struttura trofica che tassonomica, siano le più diverse fra di loro. Con l’eccezione di Bellocchio, tutte le spiagge sono dominate dal gruppo trofico dei “suspension feeders” a causa dell’elevata abbondanza del bivalve Lentidium mediterraneum. Quando dalla matrice multivariata biotica viene elimina questa specie, si evidenziano differenze più marcate fra i siti definiti naturali e quelli definiti più antropizzati. Considerando le matrici morfo-abiotiche, Lido di Spina, Cesenatico e Cesenatico sud presentano un sedimento medio-fine e moderatamente ben classato, tipico delle spiagge del litorale emiliano-romagnolo; viceversa Lido di Dante e Bellocchio presentano un sedimento rispettivamente più grossolano e molto fine e argilloso a Bellocchio.
Resumo:
In molti sistemi di distribuzione idrici una percentuale significativa di acqua viene persa passando dagli impianti di trattamento alle utenze, a causa di danneggiamenti nei diversi componenti delle reti. Le perdite idriche sono un problema costoso, non solo in termini di spreco di una preziosa risorsa naturale, ma anche in termini economici. L’obiettivo principale di questo lavoro è stato quello di identificare possibili sviluppi per le attrezzature e metodi già esistenti al fine di rilevare in modo automatico perdite idriche in condotte in plastica. A questo proposito è stata studiata l’efficacia di metodi basati sull’analisi di vibrazioni e suoni. In particolare ci si è concentrati sull’uso di accelerometri e idrofoni e, successivamente, sull’uso di sensori di emissioni acustiche. Dopo una prima fase di ricerca approfondita sulla dinamica dei fenomeni vibro-acustici che si verificano nelle condotte, sulla teoria delle emissioni acustiche, sulla caratterizzazione di segnali di perdita in condotte in plastica e sulle principali attrezzature usate attualmente per l’individuazione delle perdite, si è passati alla fase sperimentale. La fase sperimentale può essere distinta in due parti. La prima ha avuto come obiettivo il confronto tra segnali acquisiti da accelerometro e idrofono relativamente all’efficacia nell’individuazione di perdite idriche mediante apposito algoritmo ed ha coinvolto numerosi test sul campo, eseguiti sotto condizioni controllate in un impianto di rilevamento perdite sperimentale, appositamente costruito, adiacente alla sede della Divisione Reti R & S di Hera a Forlì. La seconda fase, invece, ha avuto come obiettivo la determinazione dell’efficacia del metodo delle emissioni acustiche per l’individuazione di perdite idriche ed ha visto l’esecuzione di altrettanti test, eseguiti sotto condizioni controllate, in un impianto sperimentale più semplice del precedente.
Resumo:
Negli ultimi cinque anni, l’Emilia Romagna è stata interessata da 83 fenomeni temporaleschi, che hanno causato allagamenti, smottamenti e anche la perdita di vite umane a Sala Baganza l’11 giugno 2011 e a Rimini il 24 giugno 2013. Nonostante questi fenomeni siano protagonisti di eventi calamitosi, la loro previsione rimane ancora complessa poiché sono eventi localizzati, brevi e molto intesi. Il progetto di Tesi si inserisce in questo contesto e tratta due tematiche principali: la valutazione, quantitativa, della variazione di frequenza degli eventi intensi negli ultimi 18 anni (1995-2012), in relazione ad un periodo storico di riferimento, compreso tra il 1935 ed il 1989 e il confronto tra l’andamento spaziale delle precipitazioni convettive, ottenuto dalle mappe di cumulata di precipitazione oraria dei radar meteorologici e quello ottenuto mediante due tecniche di interpolazione spaziale deterministiche in funzione dei dati pluviometrici rilevati al suolo: Poligoni di Voronoi ed Inverse Distance Weighting (IDW). Si sono ottenuti risultati interessanti nella valutazione delle variazioni dei regimi di frequenza, che hanno dimostrato come questa sembrerebbe in atto per eventi di precipitazione di durata superiore a quella oraria, senza una direzione univoca di cambiamento. Inoltre, dal confronto degli andamenti spaziali delle precipitazioni, è risultato che le tecniche di interpolazione deterministiche non riescono a riprodurre la spazialità della precipitazione rappresentata dal radar meteorologico e che ogni cella temporalesca presenta un comportamento differente dalle altre, perciò non è ancora possibile individuare una curva caratteristica per i fenomeni convettivi. L’approfondimento e il proseguimento di questo ultimo studio potranno portare all’elaborazione di un modello che, applicato alle previsioni di Nowcasting, permetta di valutare le altezze di precipitazione areale, associate a delle celle convettive in formazione e stabilire la frequenza caratteristica dell’evento meteorico in atto a scala spaziale, fornendo indicazioni in tempo reale che possono essere impiegate nelle attività di Protezione Civile.
Resumo:
L’intelligenza artificiale, ovvero lo studio e la progettazione di sistemi intelligenti, mira a riprodurre alcuni aspetti dell’intelligenza umana, come il linguaggio e il ragionamento deduttivo, nei computer. La robotica, invece, cerca spesso di ricreare nei robot comportamenti adattativi, come l’abilità di manipolare oggetti o camminare, mediante l’utilizzo di algoritmi in grado di generare comportamenti desiderati. Una volta realizzato uno di questi algoritmi specificamente per una certa abilità, si auspica che tale algoritmo possa essere riutilizzato per generare comportamenti più complessi fino a che il comportamento adattativo del robot non si mostri ad un osservatore esterno come intelligente; purtroppo questo non risulta sempre possibile e talvolta per generare comportamenti di maggiore complessità è necessario riscrivere totalmente gli algoritmi. Appare quindi evidente come nel campo della robotica l’attenzione sia incentrata sul comportamento, perché le azioni di un robot generano nuove stimolazioni sensoriali, che a loro volta influiscono sulle sue azioni future. Questo tipo di intelligenza artificiale (chiamata propriamente embodied cognition) differisce da quella propriamente detta per il fatto che l’intelligenza non emerge dall’introspezione ma dalle interazioni via via più complesse che la macchina ha con l’ambiente circostante. Gli esseri viventi presenti in natura mostrano, infatti, alcuni fenomeni che non sono programmati a priori nei geni, bensì frutto dell’interazione che l’organismo ha con l’ambiente durante le varie fasi del suo sviluppo. Volendo creare una macchina che sia al contempo autonoma e adattativa, si devono affrontare due problemi: il primo è relativo alla difficoltà della progettazione di macchine autonome, il secondo agli ingenti costi di sviluppo dei robot. Alla fine degli anni ’80 nasce la robotica evolutiva che, traendo ispirazione dall’evoluzione biologica, si basa sull’utilizzo di software in grado di rappresentare popolazioni di robot virtuali e la capacità di farli evolvere all’interno di un simulatore, in grado di rappresentare le interazioni tra mente e corpo del robot e l’ambiente, per poi realizzare fisicamente solo i migliori. Si utilizzano algoritmi evolutivi per generare robot che si adattano, anche dal punto di vista della forma fisica, all’ambiente in cui sono immersi. Nel primo capitolo si tratterà di vita ed evoluzione artificiali, concetti che verranno ripresi nel secondo capitolo, dedicato alle motivazioni che hanno portato alla nascita della robotica evolutiva, agli strumenti dei quali si avvale e al rapporto che ha con la robotica tradizionale e le sue declinazioni. Nel terzo capitolo si presenteranno i tre formalismi mediante i quali si sta cercando di fornire un fondamento teorico a questa disciplina. Infine, nel quarto capitolo saranno mostrati i problemi che ancora oggi non hanno trovato soluzione e le sfide che si devono affrontare trattando di robotica evolutiva.
Resumo:
L’armonizzazione fiscale è una importante sfida che l’Unione Europea si trova ad affrontare per la completa realizzazione del mercato interno. Le istituzioni comunitarie, tuttavia, non dispongono delle competenze legislative per intervenire direttamente negli ordinamenti tributari degli Stati membri. Svolgendo una analisi del contesto legislativo vigente, ed esaminando le prospettive de iure condendo della materia fiscale dell’Unione, il presente lavoro cerca di comprendere le prospettive di evoluzione del sistema, sia dal punto di vista della normativa fiscale sostanziale, che procedimentale. Mediante la disciplina elaborata a livello comunitario che regola la cooperazione amministrativa in materia fiscale, con particolare riferimento alle direttive relative allo scambio di informazioni e all’assistenza alla riscossione (dir. 2011/16/UE e dir. 2010/24/UE) si permette alle Amministrazioni degli Stati membri di avere accesso ai reciproci ordinamenti giuridici, e conoscerne i meccanismi. L’attuazione di tali norme fa sì che ciascun ordinamento abbia l’opportunità di importare le best practices implementate dagli altri Stati. L’obiettivo sarà quello di migliorare il proprio procedimento amministrativo tributario, da un lato, e di rendere più immediati gli scambi di informazione e la cooperazione alla riscossione, dall’altro. L’armonizzazione fiscale all’interno dell’Unione verrebbe perseguita, anziché mediante un intervento a livello europeo, attraverso un coordinamento “dal basso” degli ordinamenti fiscali, realizzato attraverso l’attività di cooperazione delle amministrazioni che opereranno su un substrato di regole condivise. La maggiore apertura delle amministrazioni fiscali dei Paesi membri e la maggiore spontaneità degli scambi di informazioni, ha una efficacia deterrente di fenomeni di evasione e di sottrazione di imposta posti in essere al fine di avvantaggiarsi delle differenze dei sistemi impositivi dei vari paesi. Nel lungo periodo ciò porterà verosimilmente, gli Stati membri a livellare i sistemi impositivi, dal momento che i medesimi non avranno più interesse ad utilizzare la leva fiscale per generare una concorrenza tra gli ordinamenti.
Resumo:
La tesi ha avuto ad oggetto l'evoluzione dell’onda di piena del fiume Fiora nella mattinata del 12/11/2012, a monte dello sbarramento di Vulci (Enel S.p.a.), la quale ha determinato il superamento della quota di massimo invaso dell’impianto e ha messo in evidenza come le equazioni descrittive, presenti all’interno del Foglio di Condizione e Manutenzione dell’Impianto (F.C.E.M), non siano rappresentative della reale capacità di scarico della diga. Sulle base di queste osservazioni è stato adottato un modello matematico sfruttando il codice di calcolo HEC-RAS per la valutazione della massima portata scaricabile dagli scarichi dell’impianto in occasione di eventi di piena particolarmente intensi. Dallo studio si è ricavato che la portata massima scaricata della diga durante l’evento suddetto è risultata circa 1430 m3/s, mentre la massima portata affluita all’impianto è risultata circa 1450 m3/s, valore potenzialmente sfruttabile per una revisione della sicurezza idraulica dello sbarramento.
Resumo:
Lo scopo della tesi è descrivere i buchi neri di Kerr. Dopo aver introdotto tutti gli strumenti matematici necessari quali tensori, vettori di Killing e geodetiche, enunceremo la metrica di Kerr, il teorema no-hair e il frame-dragging. In seguito, a partire dalla metrica di Kerr, calcoleremo e descriveremo le ergosfere, gli orizzonti degli eventi e il moto dei fotoni nel piano equatoriale.
Resumo:
Il presente lavoro parte dalla constatazione che l’Imposta sul valore aggiunto è stata introdotta con lo scopo specifico di tassare il consumo in modo uniforme a livello europeo. La globalizzazione dell’economia con l’abolizione delle frontiere ha tuttavia favorito la nascita non solo di un mercato unico europeo, ma anche di “un mercato unico delle frodi”. L’esistenza di abusi e frodi in ambito Iva risulta doppiamente dannosa per l’Unione europea: tali condotte incidono quantitativamente sull'ammontare delle risorse proprie dell’Unione e sulle entrate fiscali dei singoli Stati membri nonché violano il principio di concorrenza e producono distorsioni nel mercato unico. È in questo contesto che intervengono i giudici nazionali e la Corte di Giustizia, al fine di porre un freno a tali fenomeni patologici. Quest’ultima, chiamata a far rispettare il diritto comunitario, ha sviluppato una misura antifrode e antiabuso consistente nel diniego del diritto alla detrazione qualora lo stesso venga invocato dal soggetto passivo abusivamente o fraudolentemente. Vedremo però che il problema non può essere facilmente ridotto a formule operative: al di là dello schema, fin troppo scontato, dell’operatore apertamente disonesto e degli operatori con esso dichiaratamente correi, rimane il territorio grigio dei soggetti coinvolti, qualche volta inconsapevolmente qualche volta consapevolmente, ma senza concreta partecipazione nella frode da altri orchestrata. Permane a questo punto la domanda se sia coerente - in un sistema impositivo che privilegia i profili oggettivi, prescindendo, salvo gli aspetti sanzionatori, da quelli soggettivi- negare il diritto alla detrazione Iva per asserita consapevolezza di comportamenti fraudolenti altrui o se non vi siano regole più adatte al fine di porre un freno alle frodi e dunque più conformi al principio di proporzionalità.
Resumo:
In Medicina Veterinaria l'avvelenamento da rodenticidi anticoagulanti è conosciuto e studiato ormai da anni, essendo una delle intossicazioni più comunemente riscontrate nelle specie non target. In letteratura si rinvengono numerose pubblicazioni ma alcuni aspetti sono rimasti ancora inesplorati.Questo studio si propone di valutare il processo infiammatorio, mediante le proteine di fase acuta (APPs), in corso di fenomeni emorragici, prendendo come modello reale un gruppo di soggetti accidentalmente avvelenati da rodenticidi anticoagulanti. I 102 soggetti avvelenati presentano un valore più elevato di proteina C reattiva (CRP)con una mediana di 4.77 mg/dl statisticamente significativo rispetto alla mediana delle due popolazioni di controllo di pari entità numerica create con cross match di sesso, razza ed età; rispettivamente 0.02 mg/dl dei soggetti sani e 0.37 mg/dl dei soggetti malati di altre patologie. Inoltre all'interno del gruppo dei soggetti avvelenati un valore di CRP elevato all'ammissione può predisporre al decesso. La proteina C reattiva assume quindi un ruolo diagnostico e prognostico in questo avvelenamento. Un'altra finalità, di non inferiore importanza, è quella di definire una linea guida terapeutica con l'ausilio di biomarker coagulativi e di valutare la sicurezza della vitamina K per via endovenosa: in 73 cani, non in terapia con vitamina k, intossicati da rodenticidi anticoagulanti, i tempi della coagulazione (PT ed aPTT) ritornano nel range di normalità dopo 4 ore dalla prima somministrazione di 5 mg/kg di vitamina k per via endovenosa e nessun soggetto durante e dopo il trattamento ha manifestato reazioni anafilattiche, nessuno dei pazienti ha necessitato trasfusione ematica e tutti sono sopravvissuti. Infine si è valutata l'epidemiologia dell'ingestione dei prodotti rodenticidi nella specie oggetto di studio e la determinazione dei principi attivi mediante cromatografia liquida abbinata a spettrofotometria di massa (UPLC-MS/MS).