982 resultados para Precificação quantitativa
Resumo:
Negli ultimi anni la ricerca nella cura dei tumori si è interessata allo sviluppo di farmaci che contrastano la formazione di nuovi vasi sanguigni (angiogenesi) per l’apporto di ossigeno e nutrienti ai tessuti tumorali, necessari per l’accrescimento e la sopravvivenza del tumore. Per valutare l’efficacia di questi farmaci antiangiogenesi esistono tecniche invasive: viene prelevato tramite biopsia un campione di tessuto tumorale, e tramite analisi microscopica si quantifica la densità microvascolare (numero di vasi per mm^2) del campione. Stanno però prendendo piede tecniche di imaging in grado di valutare l’effetto di tali terapie in maniera meno invasiva. Grazie allo sviluppo tecnologico raggiunto negli ultimi anni, la tomografia computerizzata è tra le tecniche di imaging più utilizzate per questo scopo, essendo in grado di offrire un’alta risoluzione sia spaziale che temporale. Viene utilizzata la tomografia computerizzata per quantificare la perfusione di un mezzo di contrasto all’interno delle lesioni tumorali, acquisendo scansioni ripetute con breve intervallo di tempo sul volume della lesione, a seguito dell’iniezione del mezzo di contrasto. Dalle immagini ottenute vengono calcolati i parametri perfusionali tramite l’utilizzo di differenti modelli matematici proposti in letteratura, implementati in software commerciali o sviluppati da gruppi di ricerca. Al momento manca un standard per il protocollo di acquisizione e per l’elaborazione delle immagini. Ciò ha portato ad una scarsa riproducibilità dei risultati intra ed interpaziente. Manca inoltre in letteratura uno studio sull’affidabilità dei parametri perfusionali calcolati. Il Computer Vision Group dell’Università di Bologna ha sviluppato un’interfaccia grafica che, oltre al calcolo dei parametri perfusionali, permette anche di ottenere degli indici sulla qualità dei parametri stessi. Questa tesi, tramite l’analisi delle curve tempo concentrazione, si propone di studiare tali indici, di valutare come differenti valori di questi indicatori si riflettano in particolari pattern delle curve tempo concentrazione, in modo da identificare la presenza o meno di artefatti nelle immagini tomografiche che portano ad un’errata stima dei parametri perfusionali. Inoltre, tramite l’analisi delle mappe colorimetriche dei diversi indici di errore si vogliono identificare le regioni delle lesioni dove il calcolo della perfusione risulta più o meno accurato. Successivamente si passa all’analisi delle elaborazioni effettuate con tale interfaccia su diversi studi perfusionali, tra cui uno studio di follow-up, e al confronto con le informazioni che si ottengono dalla PET in modo da mettere in luce l’utilità che ha in ambito clinico l’analisi perfusionale. L’intero lavoro è stato svolto su esami di tomografia computerizzata perfusionale di tumori ai polmoni, eseguiti presso l’Unità Operativa di Diagnostica per Immagini dell’IRST (Istituto Scientifico Romagnolo per lo Studio e la Cura dei Tumori) di Meldola (FC). Grazie alla collaborazione in atto tra il Computer Vision Group e l’IRST, è stato possibile sottoporre i risultati ottenuti al primario dell’U. O. di Diagnostica per Immagini, in modo da poterli confrontare con le considerazioni di natura clinica.
Resumo:
La minaccia derivante da fattori di rischio esterni, come gli eventi catastrofici naturali, è stata recentemente riconosciuta come una questione importante riguardo la sicurezza degli impianti chimici e di processo. Gli incidenti causati dal rilascio di sotanze pericolose in seguito al danneggiamento di apparecchiature per effetto di eventi naturali sono stati definiti eventi NaTech, data la doppia componente naturale e tecnologica. È proprio la simultaneità del disastro naturale e dell’incidente tecnologico il problema principale di questo tipo di eventi, che, oltre a generare elevate difficoltà nella gestione delle emergenze, sono caratterizzati da un’elevata criticità in quanto la catastrofe naturale può essere la causa del cedimento contemporaneo di più apparecchiature in zone diverse dell’impianto. I cambiamenti climatici in corso porteranno inoltre ad un incremento della frequenza degli eventi idrometerologici estremi, con un conseguente aumento del rischio Natech. Si tratta quindi di un rischio emergente la cui valutazione deve essere effettuata attraverso metodologie e strumenti specifici. Solo recentemente è stato proposto un framework per la valutazione quantitativa di questo tipo di rischio. L’applicazione di tale procedura passa attraverso l’utilizzo di modelli di vulnerabilità che relazionano la probabilità di danneggiamento di una specifica apparecchiatura all’intensità dell’evento naturale di riferimento. Questo elaborato, facendo riferimento ai modelli di vulnerabilità e alle cartteristiche delle apparecchiature prese in esame, avrà inizialmente lo scopo di sviluppare una procedura a ritroso, calcolando l’intensità degli eventi di riferimento (terremoti e alluvioni) capace di causare un incremento di rischio non accettabile, al fine di poter determinare a priori se una data apparecchiatura con determinate condizioni operative e caratteristiche strutturali possa o meno essere installata in una zona specifica.
Resumo:
Negli ultimi cinque anni, l’Emilia Romagna è stata interessata da 83 fenomeni temporaleschi, che hanno causato allagamenti, smottamenti e anche la perdita di vite umane a Sala Baganza l’11 giugno 2011 e a Rimini il 24 giugno 2013. Nonostante questi fenomeni siano protagonisti di eventi calamitosi, la loro previsione rimane ancora complessa poiché sono eventi localizzati, brevi e molto intesi. Il progetto di Tesi si inserisce in questo contesto e tratta due tematiche principali: la valutazione, quantitativa, della variazione di frequenza degli eventi intensi negli ultimi 18 anni (1995-2012), in relazione ad un periodo storico di riferimento, compreso tra il 1935 ed il 1989 e il confronto tra l’andamento spaziale delle precipitazioni convettive, ottenuto dalle mappe di cumulata di precipitazione oraria dei radar meteorologici e quello ottenuto mediante due tecniche di interpolazione spaziale deterministiche in funzione dei dati pluviometrici rilevati al suolo: Poligoni di Voronoi ed Inverse Distance Weighting (IDW). Si sono ottenuti risultati interessanti nella valutazione delle variazioni dei regimi di frequenza, che hanno dimostrato come questa sembrerebbe in atto per eventi di precipitazione di durata superiore a quella oraria, senza una direzione univoca di cambiamento. Inoltre, dal confronto degli andamenti spaziali delle precipitazioni, è risultato che le tecniche di interpolazione deterministiche non riescono a riprodurre la spazialità della precipitazione rappresentata dal radar meteorologico e che ogni cella temporalesca presenta un comportamento differente dalle altre, perciò non è ancora possibile individuare una curva caratteristica per i fenomeni convettivi. L’approfondimento e il proseguimento di questo ultimo studio potranno portare all’elaborazione di un modello che, applicato alle previsioni di Nowcasting, permetta di valutare le altezze di precipitazione areale, associate a delle celle convettive in formazione e stabilire la frequenza caratteristica dell’evento meteorico in atto a scala spaziale, fornendo indicazioni in tempo reale che possono essere impiegate nelle attività di Protezione Civile.
Resumo:
OBIETTIVO : Quantificare le CECs/ml nei pazienti affetti da ischemia critica (IC) degli arti inferiori, eventuali correlazioni tra i fattori di rischio, lo stadio clinico con l’ aumento delle CECs. Valutare i cambiamenti strutturali (calcificazione ed infiltratto infiammatorio) e l’ angiogenesi (numero di capillari /sezione) della parete arteriosa. MATERIALI E METODI: Da Maggio 2006 ad Aprile 2008 in modo prospettico abbiamo arruolato paziente affetti da IC da sottoporre ad intervento chirurgico. In un data base abbiamo raccolto : caratteristiche demografiche, fattori di rischio, stadiazione dell'IC secondo Leriche-Fontaine (L-F), il tipo di intervento chirurgico. Per ogni paziente abbiamo effettuato un prelievo ematico di 2 ml per la quantificazione immunomagnetica delle CECs e prelievo di parete arteriosa. RISULTATI: In modo consecutivo abbiamo arruolato 33 pazienti (75.8% maschi) con età media di 71 aa (range 34-91aa), affetti da arteriopatia ostruttiva cronica periferica al IV stadio di L-F nel 84.8%, da cardiopatia ischemica cronica nel 60.6%, da ipertensione arteriosa nel 72.7% e da diabete mellito di II tipo nel 66.6%. Il valore medio di CECs/ml è risultato significativamente più elevato (p= 0.001) nei soggetti affetti da IC (CECs/ml =531.24 range 107- 3330) rispetto ai casi controllo (CECs/ml = 125.8 range 19-346 ). Le CECs/ml nei pazienti diabetici sono maggiori rispetto alle CECs/ml nei pazienti non diabetici ( 726.7 /ml vs 325.5/ml ), p< 0.05 I pazienti diabetici hanno presentato maggior incidenza di lesioni arteriose complesse rispetto ai non diabetici (66% vs 47%) e minor densità capillare (65% vs 87%). Conclusioni : Le CECs sono un marker sierologico attendibile di danno vascolare parietale, la loro quantità è maggiore nei pazienti diabetici e ipertesi. La minor capacità angiogenetica della parete arteriosa in presenza di maggior calcificazioni ed infiltrato infiammatorio nei diabetici, dimostra un danno istopatologico di parete maggiore .
Resumo:
Fino dagli albori della metodica scientifica, l’osservazione e la vista hanno giocato un ruolo fondamentale. La patologia è una scienza visiva, dove le forme, i colori, le interfacce e le architetture di organi, tessuti, cellule e componenti cellulari guidano l’occhio del patologo e ne indirizzano la scelta diagnostico-classificativa. L’osservazione del preparato istologico in microscopia ottica si attua mediante l’esame e la caratterizzazione di anomalie ad ingrandimenti progressivamente crescenti, a diverse scale spaziali, che partono dalla valutazione dell’assetto architettonico sovracellulare, per poi spostarsi ad investigare e descrivere le cellule e le peculiarità citomorfologiche delle stesse. A differenza di altri esami di laboratorio che sono pienamente quantificabili, l’analisi istologica è intrinsecamente soggettiva, e quindi incline ad un alto grado di variabilità nei risultati prodotti da differenti patologi. L’analisi d’immagine, l’estrazione da un’immagine digitale di contenuti utili, rappresenta una metodica oggettiva, valida e robusta ormai largamente impiegata a completamento del lavoro del patologo. Si sottolinea come l’analisi d’immagine possa essere vista come fase descrittiva quantitativa di preparati macroscopici e microscopici che poi viene seguita da una interpretazione. Nuovamente si sottolinea come questi descrittori siano oggettivi, ripetibili e riproducibili, e non soggetti a bassa concordanza inter operatore. La presente tesi si snoda attraverso un percorso concettuale orientato ad applicazioni di analisi d’immagine e patologia quantitativa che parte dalle applicazioni più elementari (densità, misure lineari), per arrivare a nozioni più avanzate, quali lo studio di complessità delle forme mediante l’analisi frattale e la quantificazione del pattern spaziale di strutture sovracellulari.
Resumo:
La tesi si occupa dell’integrazione di misure NMR e microscopiche per la descrizione quantitativa degli effetti di stress esterni su colture cellulari. Una maggiore comprensione dei dati ricavati tramite NMR potrebbe consentire di interpretare la vitalità e funzionalità cellulare attraverso la localizzazione spaziale degli idrogeni. L'ipotesi di partenza è che la compartimentazione degli idrogeni (associati a molecole di acqua) nel citoplasma possa fornire una stima del numero di cellule vitali (e quindi in grado di mantenere l'acqua al proprio interno mediante processi attivi). I risultati NMR, prodotti dal gruppo di ricerca del Dipartimento di Fisica e Astronomia dell’Università di Bologna della Prof.ssa Fantazzini, sono stati comparati con le informazioni acquisite dal candidato tramite metodologie di conteggio cellulare (sia vive che morte) presenti in un campione sottoposto a forte e prolungato stress (assenza di terreno di coltura e di bilanciamento del sistema tampone tramite CO2 per 400 ore). Cellule da una linea di glioblastoma multiforme (T98G) mantenute in condizioni di coltura standard sono state preparate secondo lo stesso protocollo per entrambe le tecniche di indagine, e monitorate per intervalli di tempo paragonabili. Le immagini delle cellule ottenute al microscopio ottico in modalità “contrasto di fase” sono state acquisite e utilizzate per l’analisi. Una volta definito un metodo di conteggio sperimentale, è stato possibile dedurre il comportamento delle concentrazioni di cellule sopravvissute in funzione del tempo di campionamento. Da una serie ripetuta di esperimenti è stato caratterizzato un andamento nel tempo di tipo esponenziale decrescente per il numero di cellule vive, permettendo la stima della costante di decadimento in buon accordo tra i vari esperimenti. Un analogo modello esponenziale è stato utilizzato per la descrizione dell'aumento del numero di cellule morte. In questo caso, la difficoltà nell'individuare cellule morte integre (per la frammentazione delle membrane cellulari dopo la morte) ha contribuito a determinare una sistematica sottostima nei conteggi. Il confronto dei risultati NMR e microscopici indica che la diminuzione del numero di cellule vive corrisponde ad una analoga diminuzione degli H1 compartimentalizzati fino ad un tempo specifico di circa 50-60 ore in tutti gli esperimenti. Oltre questo tempo, i dati di NMR mostrano invece un incremento di H1 compartimentalizzati, quando invece il numero di cellule vive continua a diminuire in modo monotono. Per interpretare i risultati ottenuti, è stato quindi ipotizzato che, a partire da cellule morte frammentate, strutture micellari e liposomiali formate dai lipidi di membrana in soluzione possano intrappolare gli H1 liberi, aumentando il segnale di risposta della componente compartimentalizzata come evidenziato in NMR.
Resumo:
Il primo capitolo di questo lavoro di tesi introduce i concetti di biologia necessari per comprendere il fenomeno dell’espressione genica. Il secondo capitolo descrive i metodi e le tecniche di laboratorio utilizzate per ottenere il cDNA, il materiale genetico che verrà amplificato nella real-time PCR. Nel terzo capitolo si descrive la tecnica di real-time PCR, partendo da una descrizione della PCR convenzionale fino a delineare le caratteristiche della sua evoluzione in real-time PCR. Si prosegue con la spiegazione del principio fisico alla base della tecnica e delle molecole necessarie (fluorofori e sonde) per realizzarla; infine si descrive l’hardware e il software dello strumento. Il quarto capitolo presenta le tecniche di analisi del segnale che utilizzano metodi di quantificazione assoluta o relativa. Infine nel quinto capitolo è presentato un caso di studio, cioè un’analisi di espressione genica con real-time PCR condotta durante l’esperienza di tirocinio presso il laboratorio ICM. e delle molecole necessarie (fluorofori e sonde) per realizzarla; infine si descrive l’hardware e il software dello strumento. Il quarto capitolo presenta le tecniche di analisi del segnale che utilizzano metodi di quantificazione assoluta o relativa. Infine nel quinto capitolo è presentato un caso di studio, cioè un’analisi di espressione genica con real-time PCR condotta durante l’esperienza di tirocinio presso il laboratorio ICM.
Resumo:
L’elaborato di tesi, che rientra nell’ambito di un progetto di collaborazione tra l’equipe del laboratorio ICM “Silvio Cavalcanti”, coordinato dal professor Giordano, e il CVG (Computer Vision Group) coordinato dal professor Bevilacqua, mira alla messa a punto di un sistema di misura quantitativa di segnali fluorescenti, tramite l’elaborazione di immagini acquisite in microscopia ottica.
Resumo:
Introduzione: Le capacità coordinative possono essere dedotte dalle performance del movimento e possono subire un momentaneo peggioramento in seguito ad una rapida crescita in soggetti adolescenti. Attualmente la valutazione dei test motori è di tipo qualitativo o semi-quantitativo. Obiettivi: Somministrazione di test di valutazione della coordinazione motoria a soggetti adolescenti, in versione strumentata mediante sensori inerziali ed estrazione di parametri quantitativi. Valutazione della sensibilità di tali parametri ai gruppi di performance e variazione degli stessi in seguito ad uno scatto di crescita. Metodi: Ragazzi e ragazze di primo liceo (età media 15 anni) hanno indossato tre IMUs, posizionate sul tronco e attorno alle caviglie, ed hanno eseguito tre test per la valutazione della coordinazione motoria: il test della cicogna cieca, il test dell’accovacciamento, e una prova di tandem gait. Cinque mesi dopo i ragazzi cresciuti hanno ripetuto la prova di tandem gait. Risultati: I parametri scelti sono risultati sensibili alle differenze tra i gruppi di performance per due delle tre prove proposte (il test della cicogna e l’accovacciamento). Per la prova di tandem gait non sono state riscontrate differenze significative nei valori dei parametri. Conclusione: Dai risultati preliminari è emerso come i sensori inerziali possano essere utili nel guidare l’osservatore verso una valutazione oggettiva dei test motori, in particolare grazie al sensore posizionato sul tronco. Si ritiene necessario condurre prove ulteriori per standardizzare e migliorare i metodi proposti. Per la prova di tandem gait, per la quale non sono stati ottenuti risultati significativi, si suggerisce di continuare a seguire i ragazzi nella crescita, ed eventualmente aggiungere un task cognitivo alla prova.
Resumo:
Lo studio dello sviluppo delle attività motorie fondamentali (FMS) nei bambini sta acquisendo in questi anni grande importanza, poiché la padronanza di queste ultime sembra essere correlata positivamente sia con la condizione di benessere fisico, sia con il mantenimento di alti livelli di autostima; si ritiene inoltre che possano contribuire al mantenimento di uno stile di vita sano in età adulta. In questo elaborato di tesi viene preso in considerazione un test di riferimento per la valutazione delle FMS, il TMGD – 2. Lo scopo è quello di fornire una valutazione quantitativa delle performance delle FMS, sulla base degli standard proposti dal protocollo TGMD-2, mediante una versione strumentata del test, utilizzando delle Inertial Measurement Unit (IMU). Questi sensori consentono di superare il limite posto dalla soggettività nella valutazione dell’operatore e permettono di esprimere un giudizio in maniera rapida e automatica. Il TGMD-2 è stato somministrato, in versione strumentata, a 91 soggetti di età compresa tra i 6 e i 10 anni. Sono stati ideati degli algoritmi che, a partire dai segnali di accelerazione e velocità angolare acquisiti mediante le IMU, consentono di conferire una valutazione a ciascuno dei task impartito dal TGMD – 2. Gli algoritmi sono stati validati mediante il confronto fra i risultati ottenuti e i giudizi di un valutatore esperto del TGMD-2, mostrando un alto grado di affinità, in genere tra l’80% e il 90%.
Resumo:
Esta dissertação apresenta um estudo exploratório que tem como objetivo a avaliação da reação do mercado frente aos problemas de agência e assimetria informacional entre os acionistas majoritários-controladores e os acionistas minoritários de uma empresa brasileira de capital aberto, no tocante ao valor das suas ações negociadas na Bolsa de Valores de São Paulo. O estudo se propõe a investigar o impacto de precificação dessas ações promovendo a análise do seu comportamento frente à divulgação de notícias de crise e fraude da empresa por meio da mídia especializada. A metodologia adotada consiste na aplicação de estudo de eventos para identificação de retornos anormais da empresa desde a divulgação da primeira notícia selecionada, datada de maio de 2001, até a última notícia em outubro de 2005, utilizando-se de procedimentos estatísticos como a regressão linear e aplicação do teste t de student para estimar e comparar os resultados. Os dados foram obtidos por meio do banco de dados da Economática Ltda, conforme acesso realizado na Universidade de São Paulo. Para objeto de pesquisa foi selecionada a empresa Bombril S/A, por estar em evidências quanto a problemas de agência no âmbito do mercado nacional. Os resultados obtidos apontaram que o mercado reagiu significantemente aos anúncios dos conflitos selecionados, apresentando um valor de p-value <0,05 para os blocos de eventos, o que significa a rejeição da hipótese nula, constatando que a evidencia estatística dos dados testados comprova retornos anormais acumulados diferentes de zero. Entretanto, sugere-se novas pesquisas com outros parâmetros de eventos na busca de mais evidências sobre o efeito das informações no preço das ações.
Resumo:
Esta dissertação apresenta um estudo exploratório que tem como objetivo a avaliação da reação do mercado frente aos problemas de agência e assimetria informacional entre os acionistas majoritários-controladores e os acionistas minoritários de uma empresa brasileira de capital aberto, no tocante ao valor das suas ações negociadas na Bolsa de Valores de São Paulo. O estudo se propõe a investigar o impacto de precificação dessas ações promovendo a análise do seu comportamento frente à divulgação de notícias de crise e fraude da empresa por meio da mídia especializada. A metodologia adotada consiste na aplicação de estudo de eventos para identificação de retornos anormais da empresa desde a divulgação da primeira notícia selecionada, datada de maio de 2001, até a última notícia em outubro de 2005, utilizando-se de procedimentos estatísticos como a regressão linear e aplicação do teste t de student para estimar e comparar os resultados. Os dados foram obtidos por meio do banco de dados da Economática Ltda, conforme acesso realizado na Universidade de São Paulo. Para objeto de pesquisa foi selecionada a empresa Bombril S/A, por estar em evidências quanto a problemas de agência no âmbito do mercado nacional. Os resultados obtidos apontaram que o mercado reagiu significantemente aos anúncios dos conflitos selecionados, apresentando um valor de p-value <0,05 para os blocos de eventos, o que significa a rejeição da hipótese nula, constatando que a evidencia estatística dos dados testados comprova retornos anormais acumulados diferentes de zero. Entretanto, sugere-se novas pesquisas com outros parâmetros de eventos na busca de mais evidências sobre o efeito das informações no preço das ações.
Resumo:
Apresenta gráficos que mostram a evolução da taxa de juros, spread e margem de pessoa jurídicas, físicas de 1998 a 2006. Inclui bibliografia.
Resumo:
Dados mundiais apontam haver uma associação entre o aumento do comércio de vegetais minimamente processados prontos para o consumo (VPC) e o aumento da ocorrência de surtos de enfermidades transmitidas por alimentos. Durante o processamento industrial de VPC, a desinfecção é a principal etapa de inativação de micro-organismos patogênicos presentes, mas nessa etapa também pode ocorrer contaminação cruzada, com transferência de contaminantes de produtos contaminados para não-contaminados. Neste trabalho, foram coletadas informações sobre as práticas empregadas na etapa de desinfecção em dez importantes indústrias produtoras de VPC no Estado de São Paulo, avaliando-se, em seguida, a influência dessas práticas na qualidade microbiológica dos produtos e na inativação de Salmonella Typhimurium, bem como na ocorrência de contaminação cruzada por este patógeno. Um modelo de avaliação quantitativa de risco microbiológico foi elaborado para estimar o impacto da contaminação cruzada durante a etapa de desinfecção no risco de infecção por Salmonella devido ao consumo de VPC. Observou-se que, em todas as indústrias visitadas, a desinfecção dos vegetais era feita com produtos à base de cloro em concentrações de 50 a 240 mg/L, que resultava em redução de até 1,2 log na carga microbiana dos vegetais que entravam na linha de processamento. Ao avaliar a influência das características da água de processamento (pH, temperatura, concentração de matéria orgânica e concentração de dicloroisocianurato de sódio) e do tempo de contato entre a água clorada e os vegetais na redução de Salmonella, observou-se que a concentração do produto à base de cloro foi o parâmetro que apresentou maior influência (p<0.05). Concentrações de dicloroisocianurato de sódio acima de 10 mg/L foram necessárias para controle da contaminação cruzada durante a etapa de lavagem. O modelo de avaliação de risco construído indicou quantitativamente haver uma relação entre a concentração de dicloroisocianurato de sódio na água de desinfecção e o risco de ocorrência de surtos causados por Salmonella em VPC. Cenários simulando uso de dicloroisocianurato de sódio em concentrações abaixo de 5 mg/L indicaram que mais de 96% dos casos preditos de infecção por Salmonella poderiam ser atribuídos à ocorrência de contaminação cruzada, enquanto que em cenários com concentrações acima de 50 mg/L, casos de infecção devidos à contaminação cruzada não foram preditos. Estes resultados mostram que o controle da qualidade da água e o monitoramento da concentração de sanitizante na etapa de desinfecção são essenciais para evitar a ocorrência de contaminação cruzada e garantir a produção de VPC seguros para o consumo.