999 resultados para lineare Programmierung, zertifizierte Lösbarkeit, sichere Zielfunktionswertschranke, SMT Löser, ICP


Relevância:

10.00% 10.00%

Publicador:

Resumo:

Questa tesi ha l’obbiettivo di studiare e seguire la creazione un modello matematico che possa risolvere un problema logistico di Hub Facility Location reale, per l’individuazione del posizionamento ottimale di uno o più depositi all’interno di una rete distributiva europea e per l’assegnazione dei rispettivi clienti. Si fa riferimento alla progettazione della rete logistica per rispondere alle necessità del cliente, relativamente ad una domanda multiprodotto. Questo problema è stato studiato a partire da un caso reale aziendale per la valutazione della convenienza nella sostituzione di quattro magazzini locali con uno/due hub logistici che possano servire tutte le aree. Il modello distributivo può anche essere adoperato per valutare l’effetto della variazione, dal punto di vista economico, del servizio di trasporto e di tariffario. La determinazione della posizione ottimale e del numero dei magazzini avviene tramite un modello matematico che considera al proprio interno sia costi fissi relativi alla gestione dei magazzini (quindi costo di stabilimento, personale e giacenza) e sia i costi relativi al trasporto e alla spedizione dei prodotti sulle diverse aree geografiche. In particolare, la formulazione matematica si fonda su un modello Programmazione Lineare Intera, risolto in tempi molto brevi attraverso un software di ottimizzazione, nonostante la grande mole di dati in input del problema. In particolare, si ha lo studio per l’integrazione di tariffari di trasporto diversi e delle economie di scala per dare consistenza ad un modello teorico. Inoltre, per ricercare la migliore soluzione di quelle ottenute sono poi emersi altri fattori oltre a quello economico, ad esempio il tempo di trasporto (transit-time) che è un fattore chiave per ottenere la soddisfazione e la fedeltà del cliente e attitudine dell’area geografica ad accogliere una piattaforma logistica, con un occhio sugli sviluppi futuri.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Il lavoro di tesi presentato è nato da una collaborazione con il Politecnico di Macao, i referenti sono: Prof. Rita Tse, Prof. Marcus Im e Prof. Su-Kit Tang. L'obiettivo consiste nella creazione di un modello di traduzione automatica italiano-cinese e nell'osservarne il comportamento, al fine di determinare se sia o meno possibile l'impresa. Il trattato approfondisce l'argomento noto come Neural Language Processing (NLP), rientrando dunque nell'ambito delle traduzioni automatiche. Sono servizi che, attraverso l'ausilio dell'intelligenza artificiale sono in grado di elaborare il linguaggio naturale, per poi interpretarlo e tradurlo. NLP è una branca dell'informatica che unisce: computer science, intelligenza artificiale e studio di lingue. Dal punto di vista della ricerca, le più grandi sfide in questo ambito coinvolgono: il riconoscimento vocale (speech-recognition), comprensione del testo (natural-language understanding) e infine la generazione automatica di testo (natural-language generation). Lo stato dell'arte attuale è stato definito dall'articolo "Attention is all you need" \cite{vaswani2017attention}, presentato nel 2017 a partire da una collaborazione di ricercatori della Cornell University.\\ I modelli di traduzione automatica più noti ed utilizzati al momento sono i Neural Machine Translators (NMT), ovvero modelli che attraverso le reti neurali artificiali profonde, sono in grado effettuare traduzioni o predizioni. La qualità delle traduzioni è particolarmente buona, tanto da arrivare quasi a raggiungere la qualità di una traduzione umana. Il lavoro infatti si concentrerà largamente sullo studio e utilizzo di NMT, allo scopo di proporre un modello funzionale e che sia in grado di performare al meglio nelle traduzioni da italiano a cinese e viceversa.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

In questo lavoro si studierà un nuovo sistema di consegna merci, denominato crowd-shipping. Questo si propone come soluzione per il trasporto della merce a domicilio, soprattutto per quanto riguarda l’ultimo miglio, con la quale si intendono le consegne che vengono effettuate all’interno dei centri urbani. È una soluzione recente che prevede di appoggiare ai corrieri tradizionali delle persone comuni, definiti corrieri occasionali (OD, Occasional Drivers). Questi ultimi, percorrendo un tratto di strada per motivi personali, sono disposti a consegnare la merce ai destinatari finali effettuando delle deviazioni al loro tragitto originario, in cambio di un compenso. Dopo aver studiato la situazione attuale dell’E-commerce e dello sviluppo delle Sharing Economy, dopo aver appreso il funzionamento di questo nuovo tipo di soluzione logistica, verrà presentato un modello matematico di programmazione lineare per le consegne last mile della merce in crowd-shipping. Questo modello verrà testato nel contesto urbano di Bologna e prevedrà due livelli di consegna rappresentati in primis dai corrieri tradizionali e in secondo luogo dai corrieri occasionali. Modalità possibile grazie all’utilizzo di armadietti automatici come depositi intermedi; si avranno, infatti, dei corrieri classici che riforniscono gli armadietti e dei corrieri occasionali che prelevano la merce dagli armadietti e la consegnano ai destinatari finali. Il modello sarà implementato in scenari diversi, con un differente numero di attori coinvolti, diverse ricompense per gli OD e diverse tipologie di veicoli, più o meno inquinanti. Questo ultimo punto ci anticipa che questa modalità di consegne può portare benefici importanti anche a livello ambientale; e in un mondo dove i cambiamenti atmosferici dovuti all’inquinamento sono sempre più devastanti, il crowd-shipping può portare a benefici concreti. Benefici che si sono dimostrati anche economici, sia per le aziende di spedizioni, sia per i clienti finali.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

La segmentazione prevede la partizione di un'immagine in aree strutturalmente o semanticamente coerenti. Nell'imaging medico, è utilizzata per identificare, contornandole, Regioni di Interesse (ROI) clinico, quali lesioni tumorali, oggetto di approfondimento tramite analisi semiautomatiche e automatiche, o bersaglio di trattamenti localizzati. La segmentazione di lesioni tumorali, assistita o automatica, consiste nell’individuazione di pixel o voxel, in immagini o volumi, appartenenti al tumore. La tecnica assistita prevede che il medico disegni la ROI, mentre quella automatica è svolta da software addestrati, tra cui i sistemi Computer Aided Detection (CAD). Mediante tecniche di visione artificiale, dalle ROI si estraggono caratteristiche numeriche, feature, con valore diagnostico, predittivo, o prognostico. L’obiettivo di questa Tesi è progettare e sviluppare un software di segmentazione assistita che permetta al medico di disegnare in modo semplice ed efficace una o più ROI in maniera organizzata e strutturata per futura elaborazione ed analisi, nonché visualizzazione. Partendo da Aliza, applicativo open-source, visualizzatore di esami radiologici in formato DICOM, è stata estesa l’interfaccia grafica per gestire disegno, organizzazione e memorizzazione automatica delle ROI. Inoltre, è stata implementata una procedura automatica di elaborazione ed analisi di ROI disegnate su lesioni tumorali prostatiche, per predire, di ognuna, la probabilità di cancro clinicamente non-significativo e significativo (con prognosi peggiore). Per tale scopo, è stato addestrato un classificatore lineare basato su Support Vector Machine, su una popolazione di 89 pazienti con 117 lesioni (56 clinicamente significative), ottenendo, in test, accuratezza = 77%, sensibilità = 86% e specificità = 69%. Il sistema sviluppato assiste il radiologo, fornendo una seconda opinione, non vincolante, adiuvante nella definizione del quadro clinico e della prognosi, nonché delle scelte terapeutiche.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

L'obiettivo di questa tesi è la caratterizzazione dei gruppi di Galois di alcune classi di polinomi separabili e risolubili per radicali. Questa classificazione si baserà sulle proprietà di primitività e imprimitività di tali gruppi, proprietà che descrivono il carattere della loro azione permutativa sulle radici dei polinomi. Da tale analisi potremo inoltre dedurre importanti informazioni sui polinomi, i quali, a loro volta, saranno detti primitivi o imprimitivi. Dopo aver ricordato alcune definizioni e risultati fondamentali di Teoria di Galois e Teoria dei gruppi, studieremo alcuni gruppi di permutazioni, concentrandoci in particolare sul gruppo lineare affine e sul prodotto intrecciato di due gruppi di permutazioni: tali oggetti costituiscono, infatti, gli strumenti principali per la descrizione dei gruppi di Galois che affronteremo negli ultimi capitoli. Nel Capitolo 3, in particolare, ci concentreremo su polinomi imprimitivi di grado p², con p primo. Nel quarto, invece, dimostreremo un potente Teorema che fornisce una notevole caratterizzazione dei gruppi di Galois di tutti i polinomi primitivi e risolubili per radicali.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

La ricerca di esopianeti è un ambito astrofisico in continua evoluzione. Nuovi metodi vengono proposti con l’obiettivo di individuare pianeti con una varietà di caratteristiche sempre più ampia, per poter definire al meglio la storia di formazione ed evoluzione dei sistemi planetari. Un metodo recente in grado di caratterizzare pianeti di piccola massa è lo studio della variazione del tempo di transito (TTV), basato sulla modulazione del periodo orbitale di un pianeta noto causata dalla perturbazione di un corpo aggiuntivo. In questo lavoro proponiamo l’analisi delle curve di luce del pianeta XO-2Nb al fine di individuare TTV. Questo sistema è di particolare rilevanza poiché ospitato dalla prima stella binaria wide in cui entrambe le componenti presentano un proprio sistema planetario. Tra le due stelle solo XO-2N presenta un pianeta transitante, requisito per l’applicazione del metodo proposto. L’analisi dei dati è stata svolta utilizzando il metodo della fotometria differenziale di apertura, normalizzando la curva di luce del target ad altre due stelle di riferimento presenti nel campo di vista dello strumento. I risultati ottenuti evidenziano l’assenza di variazioni di periodo orbitale per XO-2Nb e sono consistenti con un’effemeride lineare. La nuova effemeride calcolata risulta tre volte più precisa rispetto al più recente studio in letteratura, e permetterà di predire futuri transiti con una precisione migliore di un minuto fino al 2035. Abbiamo stabilito un limite superiore all’ampiezza del TTV permessa dai nostri dati, ricavando il valore massimo della massa di un eventuale pianeta perturbatore, pari a 0.15 masse terrestri. Abbiamo ricavato in maniera indipendente i parametri fisici ed orbitali di XO-2Nb, confermando e raffinando i valori presenti in letteratura. I risultati ottenuti suggeriscono che, in determinati casi, l’analisi fotometrica eseguita utilizzando telescopi medio-piccoli da terra può essere competitiva con i più avanzati telescopi spaziali.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Il Parmigiano Reggiano è un formaggio a Denominazione d’Origine Protetta (DOP), a pasta dura, cotta, granulosa, a lunga stagionatura, prodotto con latte crudo, parzialmente scremato, proveniente da vacche alimentate prevalentemente con foraggi della zona d’origine. La trasformazione del latte in questo formaggio DOP è ancora basata su una tecnologia artigianale legata all’esperienza empirica dei casari e tutelata dal Consorzio del Parmigiano Reggiano. L’obiettivo della tesi è stato quello di analizzare l’attività dell’acqua e la texture di 14 punte di formaggio “Parmigiano Reggiano”, provenienti da diverse realtà casearie nelle provincie di Parma, Reggio Emilia, Modena, Bologna alla sinistra del fiume Reno e Mantova, alla destra del fiume Po aderenti al consorzio di tutela; al fine di trarre conclusioni sulla struttura di tali campioni. In dettaglio, per valutare in modo sistematico e comprensivo la texture dei campioni è stata valutata mediante i test di Taglio, Texture Profile Analysis (TPA) e Three Point Bending. Al fine di valutare l’effetto della temperatura, le medesime analisi di texture sono state anche effettuate su alcuni campioni di formaggio condizionati alle temperature di 8, 20, 25 e 30°C. I campioni di Parmigiano Reggiano provenienti da diversi caseifici hanno presentato alcune differenze significative in termini di attività dell’acqua, durezza di taglio, elasticità, coesività, gommosità, forza massima, distanza lineare e fratturabilità. Queste variabilità potrebbero essere attribuite a diversità e peculiarità nel processo produttivo e nell’esperienza dei singoli caseari. Inoltre, è stato evidenziato un ruolo significativo delle temperature dei campioni alla quale si effettuano le analisi di texture. In particolare, i campioni condizionati a 8°C rispetto alle altre temperature hanno presentato differenze significative in tutti i parametri di texture analizzati eccetto che per quelli di elasticità e gommosità determinati con il test TPA.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Una sempre crescente quantità di informazione digitale viene condivisa tra miliardi di dispositivi connessi in ogni angolo del pianeta. Per riuscire a sfruttare una banda più ampia ed aumentare la velocità di trasmissione dei dati, i prossimi standard di telecomunicazioni wireless dovranno adoperare frequenze operative sempre più alte, cercando di rispettare stringenti specifiche in termini di affidabilità ed efficienza energetica. In generale, le prestazioni di un transistor dipenderanno dalle terminazioni a cui esso è collegato. In un setup di caratterizzazione e test, è possibile, tramite un metodo noto come load pull attivo, sintetizzare un determinato valore di impedenza ad uno o più piani di riferimento all'interno di un circuito. Questa strategia si basa in generale sulla manipolazione del rapporto tra onde entranti ed uscenti da un piano di riferimento del dispositivo. Se da una parte tecniche di load pull attivo a banda larga a radiofrequenza hanno ricevuto un notevole interesse sia commerciale che accademico, dall'altra le strategie per la sintesi di impedenze presenti al terminale di alimentazione dell'amplificatore, sono state meno investigate. Questo elaborato si propone di introdurre un algoritmo per il load pull attivo a banda base per amplificatori per applicazioni RF. Dopo un'introduzione sui modelli comportamentali degli amplificatori, è stato considerato il problema degli effetti di memoria. È stata poi descritta la tecnica per l'emulazione di impedenze. Dapprima, è stato considerato il caso lineare. Poi, tramite il design di un amplificatore di potenza per applicazioni a radio frequenza usato come device under test (DUT), sono stati affrontati due esempi in presenza di non linearità, verificando la correttezza della tecnica proposta tramite l'uso di simulazioni.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

La circolazione sanguigna nell’organismo umano sfrutta un meccanismo ad hoc per trasportare gli scarti e tutte le sostanze necessarie al metabolismo cellulare. Il cuore rappresenta la pompa che dà al sangue la spinta per scorrere nei vasi e il ventricolo sinistro è la cavità cardiaca che contribuisce di più allo svolgimento di questo lavoro. Il modello pulsatile utilizzato in questo elaborato per la circolazione sistemica deriva dalla semplificazione di un modello a parametri concentrati precedentemente pubblicato. Nell’analogo elettrico di questo modello sono state incluse la resistenza al ritorno venoso, la resistenza al deflusso aortico e la resistenza arteriolare sistemica. Inoltre, la funzione di pompa del ventricolo è definita dalla complianza ventricolare tempo-variante e dal suo inverso, l’elastanza. Le valvole ventricolari sono simulate da due diodi e le capacità venose e arteriose tengono conto del comportamento elastico dei rispettivi compartimenti. Considerando il lavoro delle valvole, il ciclo cardiaco è stato suddiviso in sette intervalli temporali, per ciascuno dei quali è stato disegnato un analogo elettrico che descrive il comportamento degli elementi circuitali in quello specifico intervallo temporale. Attraverso l’applicazione delle leggi di Kirchoff agli analoghi elettrici sopra citati si scrivono le equazioni differenziali nelle funzioni incognite carica elettrica sulla complianza ventricolare e tensione arteriosa. Per ottenere le espressioni analitiche della soluzione delle equazioni differenziali si approssima l’elastanza con una funzione lineare a tratti e si utilizzano i teoremi per la risoluzione delle equazioni differenziali di ordine uno non omogenee. Le espressioni analitiche vengono implementate su Matlab, che consente di ottenere dei grafici della pressione venosa, arteriosa e ventricolare, dell’elastanza, del volume ventricolare e della portata aortica anche in risposta ad una diminuzione della resistenza arteriolare sistemica.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

La maggiore consapevolezza dell’importanza dello sfruttamento di risorse ha contribuito a favorire una transizione da un modello di economia lineare ad uno circolare, basato sulla chiusura dei cicli di risorse e l’allungamento del ciclo di vita di un prodotto o servizio. La simbiosi Industriale si colloca in questo contesto come strategia per l’ottimizzazione delle risorse e prevede il trasferimento di scarti e sottoprodotti da un’azienda output ad una input, che le utilizzerà come risorse per i loro processi. L’instaurazione di rapporti di simbiosi industriale non è così immediata e necessita di un ente esterno che faciliti la collaborazione tra le aziende e fornisca supporto tecnico per la sua implementazione. In Italia ENEA rappresenta il principale ente di riferimento per l’implementazione di progetti di simbiosi industriale e ha sviluppato un ecosistema di strumenti al fine di guidare le aziende all’interno di percorsi di simbiosi industriale. L’obiettivo di questo lavoro è quello di formulare una metodologia per la valutazione preliminare di potenziali sinergie a livello territoriale, utilizzando dati storici riguardanti sinergie e presentare uno strumento applicativo basato su di essa. La prima parte è del lavoro è dedicata ad una ricerca bibliografica sui temi della simbiosi industriale, evidenziando vantaggi e il ruolo di ENEA. Di seguito verrà illustrata la metodologia sviluppata con i suoi step operativi, il cui obiettivo è quello di valutare la presenza di potenziali sinergie a livello territoriale, partendo da un database di aziende classificate per codici Ateco e uno di sinergie già attivate in precedenza. Infine, verrà presentato lo strumento di lavoro Microsoft Excel, programmato in VBA, che permette l’applicazione della metodologia. Per mostrarne il funzionamento si utilizzano dati estratti dalla banca dati AIDA per le aziende e dati dai database MAESTI e IS-DATA per le sinergie.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Il presente studio analizza l’attuale tendenza del sistema televisivo statunitense all’ibridazione con i modelli affermati già nell’era dominata dai network prima, e dalla CATV poi. Dopo una mappatura storica che permette di comprendere e apprezzare i continui cambiamenti dell’industria televisiva, lo scritto si concentra sull’analisi delle varie strategie manageriali (e sulle retoriche) che stanno alla base delle prime fasi dei servizi non lineari. Si esaminano inoltre le modalità che governano ora i tentativi di recupero di esperienze che sembravano ormai superate per lasciare spazio proprio ai modelli OTT. Infatti, data la non sostenibilità sul lungo periodo delle forme economiche, distributive, produttive, etc., adottate delle piattaforme streaming come Netflix, Amazon Prime Video e Disney+, queste cercano ora di ricostruire una dimensione lineare, alla cui matrice troviamo la weekly release, la pubblicità, la sincronizzazione sociale, la diretta e altro ancora – si pensi ai casi Pluto TV e Peacock TV, esempi di servizi HVOD (Hybrid Video on Demand) che stanno tracciando dei nuovi percorsi pur senza dimenticare ciò che ha funzionato in passato.

Relevância:

0.00% 0.00%

Publicador:

Resumo:

The present study analyzed metallothionein (MT) excretion from liver to bile in Nile Tilapia (Oreochromis niloticus) exposed to sub-lethal copper concentrations (2mgL(-1)) in a laboratory setting. MTs in liver and bile were quantified by spectrophotometry after thermal incubation and MT metal-binding profiles were characterized by size exclusion high performance liquid chromatography coupled to ICP-MS (SEC-HPLC-ICP-MS). Results show that liver MT is present in approximately 250-fold higher concentrations than bile MT in non-exposed fish. Differences between the MT profiles from the control and exposed group were observed for both matrices, indicating differential metal-binding behavior when comparing liver and bile MT. This is novel data regarding intra-organ MT comparisons, since differences between organs are usually present only with regard to quantification, not metal-binding behavior. Bile MT showed statistically significant differences between the control and exposed group, while the same did not occur with liver MT. This indicates that MTs synthesized in the liver accumulate more slowly than MTs excreted from liver to bile, since the same fish presented significantly higher MT levels in liver when compared to bile. We postulate that bile, although excreted in the intestine and partially reabsorbed by the same returning to the liver, may also release MT-bound metals more rapidly and efficiently, which may indicate an efficient detoxification route. Thus, we propose that the analysis of bile MTs to observe recent metal exposure may be more adequate than the analysis of liver MTs, since organism responses to metals are more quickly observed in bile, although further studies are necessary.

Relevância:

0.00% 0.00%

Publicador:

Resumo:

The SLC8A1 gene, which encodes the Na(+)/Ca(2+) exchanger, plays a key role in calcium homeostasis. Our previous gene expression oligoarray data revealed SLC8A1 underexpression in penile carcinoma (PeCa). The aim of this study was to investigate whether the dysregulation of SLC8A1 expression is associated with apoptosis and cell proliferation in PeCa, via modulation of calcium concentration. The underlying mechanisms of SLC8A1 underexpression were also explored, focusing on copy number alteration and microRNA. Transcript levels of SLC8A1 gene and miR-223 were evaluated by quantitative PCR, comparing PeCa samples with normal glans tissues. SLC8A1 copy number was evaluated by microarray-based comparative genomic hybridization (array-CGH). Caspase-3 and Ki-67 immunostaining, as well as calcium distribution by Laser Ablation Imaging Inductively Coupled Plasma Mass Spectrometry [LA(i)-ICP-MS], were investigated in both normal and tumor samples. Confirming our previous data, SLC8A1 underexpression was detected in PeCa samples (P=0.001) and was not associated with gene copy number loss. In contrast, overexpression of miR-223 (P=0.002) was inversely correlated with SLC8A1 (P=0.015, r=-0.426), its putative repressor. In addition, SLC8A1 underexpression was associated with decreased calcium distribution, high Ki-67 and low caspase-3 immunoexpression in PeCa when compared with normal tissues. Down-regulation of the SLC8A1 gene, most likely mediated by its regulator miR-223, can lead to reduced calcium levels in PeCa and, consequently, to suppression of apoptosis and increased tumor cell proliferation. These data suggest that the miR-223-NCX1-calcium-signaling axis may represent a potential therapeutic approach in PeCa.

Relevância:

0.00% 0.00%

Publicador:

Resumo:

Mapping of elements in biological tissue by laser induced mass spectrometry is a fast growing analytical methodology in life sciences. This method provides a multitude of useful information of metal, nonmetal, metalloid and isotopic distribution at major, minor and trace concentration ranges, usually with a lateral resolution of 12-160 µm. Selected applications in medical research require an improved lateral resolution of laser induced mass spectrometric technique at the low micrometre scale and below. The present work demonstrates the applicability of a recently developed analytical methodology - laser microdissection associated to inductively coupled plasma mass spectrometry (LMD ICP-MS) - to obtain elemental images of different solid biological samples at high lateral resolution. LMD ICP-MS images of mouse brain tissue samples stained with uranium and native are shown, and a direct comparison of LMD and laser ablation (LA) ICP-MS imaging methodologies, in terms of elemental quantification, is performed.

Relevância:

0.00% 0.00%

Publicador:

Resumo:

Two hundred and six patients with severe head injury (Glasgow Coma Scale of 8 points or less after nonsurgical resuscitation on admission), managed at Intensive Care Unit-Hospital das Clínicas - Universidade Estadual de Campinas were prospectively analysed. All patients were assessed by CT scan and 72 required neurosurgical intervention. All patients were continuously monitored to evaluate intracranial pressure (ICP) levels by a subarachnoid device (11 with subarachnoid metallic bolts and 195 with subarachnoid polyvinyl catheters). The ICP levels were continuously observed in the bedside pressure monitor display and their end-hour values were recorded in a standard chart. The patients were managed according to a standard protocol guided by the ICP levels. There were no intracranial haemorrhagic complications or hematomas due the monitoring method. Sixty six patients were punctured by lateral C1-C2 technique to assess infectious complications and 2 had positive cerebrospinal fluid samples for Acinetobacter sp. The final results measured at hospital discharge showed 75 deaths (36,40%) and 131 (63,60%) survivors. ICP levels had significantly influenced the final results (p<0,001). The subarachnoid method to continuously assess the ICP levels was considered aplicable, safe, simple, low cost and useful to advise the management of the patients. The ICP record methodology was practical and useful. Despite the current technical advances the subarachnoid method was considered viable to assess the ICP levels in severe head injury.