566 resultados para Crittografia Computazionale Generatori Pseudocasuali Dimostrazione Automatica CryptoVerif
Resumo:
Several decision and control tasks in cyber-physical networks can be formulated as large- scale optimization problems with coupling constraints. In these "constraint-coupled" problems, each agent is associated to a local decision variable, subject to individual constraints. This thesis explores the use of primal decomposition techniques to develop tailored distributed algorithms for this challenging set-up over graphs. We first develop a distributed scheme for convex problems over random time-varying graphs with non-uniform edge probabilities. The approach is then extended to unknown cost functions estimated online. Subsequently, we consider Mixed-Integer Linear Programs (MILPs), which are of great interest in smart grid control and cooperative robotics. We propose a distributed methodological framework to compute a feasible solution to the original MILP, with guaranteed suboptimality bounds, and extend it to general nonconvex problems. Monte Carlo simulations highlight that the approach represents a substantial breakthrough with respect to the state of the art, thus representing a valuable solution for new toolboxes addressing large-scale MILPs. We then propose a distributed Benders decomposition algorithm for asynchronous unreliable networks. The framework has been then used as starting point to develop distributed methodologies for a microgrid optimal control scenario. We develop an ad-hoc distributed strategy for a stochastic set-up with renewable energy sources, and show a case study with samples generated using Generative Adversarial Networks (GANs). We then introduce a software toolbox named ChoiRbot, based on the novel Robot Operating System 2, and show how it facilitates simulations and experiments in distributed multi-robot scenarios. Finally, we consider a Pickup-and-Delivery Vehicle Routing Problem for which we design a distributed method inspired to the approach of general MILPs, and show the efficacy through simulations and experiments in ChoiRbot with ground and aerial robots.
Resumo:
La presente tesi di dottorato ha come oggetto principale la catalogazione dei 120 frammenti latini manoscritti rinvenuti all’interno del fondo Parrocchie Soppresse della Città dell’Archivio Generale Arcivescovile di Bologna. Sono di lacerti di pergamena provenienti da antichi codici e documenti dismessi per varie ragioni, riutilizzati come materiale povero di legatoria per il confezionamento di registri parrocchiali di epoca moderna. I frammenti, che ad oggi si trovano tutti in situ, ossia svolgono ancora la loro funzione di riuso, rappresentano un variegato patrimonio manoscritto mutilo totalmente sconosciuto, reso per la prima volta accessibile proprio dal presente strumento descrittivo. In apertura al catalogo si colloca un’ampia sezione dedicata a delineare lo stato degli studi e degli orientamenti di ricerca intrapresi per proporre delle soluzioni alle criticità peculiari connesse alla catalogazione di manoscritti mutili: un dibattito che però ha preso in considerazione, quasi in maniera esclusiva, i frammenti di natura libraria. Pertanto, si è ritenuto necessario dare rilievo alle questioni poste dalla descrizione dei lacerti di documenti, estremamente frequenti tra le tipologie testuali reimpiegate. Tale considerazione appare necessaria, specialmente in un panorama di ricerca che si propone di guardare a grandi corpora frammentari con un approccio interdisciplinare, che si serve, inoltre, dei nuovi strumenti offerti dalle digital humanities. A dimostrazione dell’eterogeneità delle fonti rinvenute, le quali ricoprono un arco temporale che va dalla fine dell’XI secolo agli inizi del XVIII, si propongono due casi di studio rivolti all’analisi paleografica e testuale di un lacerto del De mulieribus claris di Boccaccio e di un testimone di XII sec. della Passio di S. Giuliana. Infine, la realizzazione del presente progetto è stata accompagnata da un parallelo censimento dei disiecta membra all’interno di altri fondi dell’Archivio Arcivescovile , un’operazione che, nonostante sia ancora in corso, ha già portato alla luce quasi 600 nuove maculature del tutto inedite.
Resumo:
Safe collaboration between a robot and human operator forms a critical requirement for deploying a robotic system into a manufacturing and testing environment. In this dissertation, the safety requirement for is developed and implemented for the navigation system of the mobile manipulators. A methodology for human-robot co-existence through a 3d scene analysis is also investigated. The proposed approach exploits the advance in computing capability by relying on graphic processing units (GPU’s) for volumetric predictive human-robot contact checking. Apart from guaranteeing safety of operators, human-robot collaboration is also fundamental when cooperative activities are required, as in appliance test automation floor. To achieve this, a generalized hierarchical task controller scheme for collision avoidance is developed. This allows the robotic arm to safely approach and inspect the interior of the appliance without collision during the testing procedure. The unpredictable presence of the operators also forms dynamic obstacle that changes very fast, thereby requiring a quick reaction from the robot side. In this aspect, a GPU-accelarated distance field is computed to speed up reaction time to avoid collision between human operator and the robot. An automated appliance testing also involves robotized laundry loading and unloading during life cycle testing. This task involves Laundry detection, grasp pose estimation and manipulation in a container, inside the drum and during recovery grasping. A wrinkle and blob detection algorithms for grasp pose estimation are developed and grasp poses are calculated along the wrinkle and blobs to efficiently perform grasping task. By ranking the estimated laundry grasp poses according to a predefined cost function, the robotic arm attempt to grasp poses that are more comfortable from the robot kinematic side as well as collision free on the appliance side. This is achieved through appliance detection and full-model registration and collision free trajectory execution using online collision avoidance.
Resumo:
Negli ultimi anni le preoccupazioni a causa dell’inquinamento ambientale sono risultate sempre maggiori, questo ha portato un sempre più crescente interesse per l’ottimizzazione nella progettazione dei motori a combustione interna per avere un aumento di potenza cercando di utilizzare meno carburante. Sempre più di frequente, al fine di studiare la combustione in modo accurato e ricavarne modelli analitici coerenti con la realtà, ci si rivolge alla simulazione numerica; Tutti i modelli di combustione utilizzati dai solutori CFD richiedono la conoscenza della velocità laminare di fiamma, questa gioca un ruolo molto importante nei motori a combustione interna così come in altre applicazioni, come il calcolo dei moti turbolenti. Il calcolo della velocità laminare può avvenire attraverso modelli di cinetica chimica dettagliata a fronte di un peso computazionale non indifferente oppure utilizzando meccanismi cinetici ridotti con conseguente perdita di accuratezza. L’obiettivo di questa tesi è lo studio della velocità di fiamma laminare al variare delle principali caratteristiche della miscela focalizzandosi sull’effetto di pressione, temperatura e di eventuali inerti (Acqua ed Egr). Attraverso la cinetica chimica dettagliata e relativo calcolo delle velocità delle reazioni di ossidazione sono state definite delle “look up tables” il più possibile dettagliate (nonostante il grande peso computazionale) al fine di avere uno strumento facilmente implementabile in solutori CFD. Inoltre, a partire dai dati acquisiti, si è passati all’analisi delle precedenti correlazioni cercando, nei limiti, di migliorarne e proporne altre per non dover ricorrere all’interpolazione delle mappe.
Resumo:
Il progetto di tesi consiste nella progettazione e nell'implementazione di una applicazione mobile Android nativa per la generazione automatica di itinerari di viaggio in base ad alcuni dati inseriti in input dall'utente. La app è costituita da una serie di activity di raccolta dati in cui viene chiesto all'utente di inserire le sue preferenze in quanto a destinazione, periodo, modalità di viaggio ed altre informazioni. Completata questa fase viene attivato l'algoritmo che genera gli itinerari elaborando i dati raccolti. L'itinerario, che rappresenta il risultato ottenuto dall'algoritmo, è diviso in giorni ed ogni giorno di viaggio contiene i luoghi da visitare in ordine ottimizzato, con la possibilità di usufruire di ulteriori servizi di indicazioni stradali e visualizzazione su mappe. L'intero progetto è stato implementato in Java con l'ambiente di sviluppo Android Studio.
Resumo:
In questo elaborato ci siamo occupati della legge di Zipf sia da un punto di vista applicativo che teorico. Tale legge empirica afferma che il rango in frequenza (RF) delle parole di un testo seguono una legge a potenza con esponente -1. Per quanto riguarda l'approccio teorico abbiamo trattato due classi di modelli in grado di ricreare leggi a potenza nella loro distribuzione di probabilità. In particolare, abbiamo considerato delle generalizzazioni delle urne di Polya e i processi SSR (Sample Space Reducing). Di questi ultimi abbiamo dato una formalizzazione in termini di catene di Markov. Infine abbiamo proposto un modello di dinamica delle popolazioni capace di unificare e riprodurre i risultati dei tre SSR presenti in letteratura. Successivamente siamo passati all'analisi quantitativa dell'andamento del RF sulle parole di un corpus di testi. Infatti in questo caso si osserva che la RF non segue una pura legge a potenza ma ha un duplice andamento che può essere rappresentato da una legge a potenza che cambia esponente. Abbiamo cercato di capire se fosse possibile legare l'analisi dell'andamento del RF con le proprietà topologiche di un grafo. In particolare, a partire da un corpus di testi abbiamo costruito una rete di adiacenza dove ogni parola era collegata tramite un link alla parola successiva. Svolgendo un'analisi topologica della struttura del grafo abbiamo trovato alcuni risultati che sembrano confermare l'ipotesi che la sua struttura sia legata al cambiamento di pendenza della RF. Questo risultato può portare ad alcuni sviluppi nell'ambito dello studio del linguaggio e della mente umana. Inoltre, siccome la struttura del grafo presenterebbe alcune componenti che raggruppano parole in base al loro significato, un approfondimento di questo studio potrebbe condurre ad alcuni sviluppi nell'ambito della comprensione automatica del testo (text mining).
Resumo:
L’obiettivo di questa tesi è lo studio dell’applicazione del filtro di Kalman Duale per la stima dei principali parametri di batteria. Si è realizzato un algoritmo che consente la stima del SoC e dei parametri basandosi su riferimenti di tensione provenienti da modelli matematici e da prove di laboratorio. La scelta del Kalman duale consente uno studio più completo dei parametri di batteria visto che permette di operare su circuiti equivalenti più complessi con maggiori informazioni sull’evoluzione della batteria nel tempo. I risultati dimostrano l’efficacia del DEKF nello stimare la tensione e lo stato di carica con errori minori rispetto a precedenti test effettuati con altri filtri di Kalman. Si ha però una difficoltà alla convergenza su alcuni parametri a causa dell’elevato carico computazionale che porta ad un aumento del rumore. Perciò, per studi futuri si dovrà aumentare la precisione con cui la stima duale opera sulla matrice dei parametri del circuito equivalente. Questo porterà a migliori prestazioni anche su circuiti più complessi.
Resumo:
L’Intelligenza Artificiale è un campo dell’informatica che da tempo si afferma come valido strumento alternativo per la risoluzione di problemi tipicamente riservati esclusivamente all’intelletto umano. Se in principio gli algoritmi sfruttati nel campo dell’Intelligenza Artificiale erano basati su insiemi di regole codificate da esperti del dominio di applicazione dell’algoritmo, con l’arrivo del secondo millennio questo approccio è stato superato in favore di algoritmi che sfruttano grandi quantità di dati ed elevata potenza di calcolo per fare scelte ottimali. Un esempio di questo approccio può essere Deep Blue, che nel 1996, anche grazie ad un database di 4mila aperture e un’architettura che permetteva 11 GFLOPS fu la prima macchina a vincere una partita a scacchi contro un grande maestro. Col passare degli anni, l’aumentare degli investimenti e della ricerca, questo approccio ha portato alla strutturazione del campo dell’Apprendimento Automatico (Machine Learning, in inglese) dal quale sono scaturiti numerosi avanzamenti che hanno influenzato una moltitudine di ambiti: dall’agricoltura di precisione alla traduzione automatica, dal riconoscimento di frodi con carte di credito alla farmaceutica, dal marketing alla visione artificiale e molti altri, inclusa la medicina. Questo lavoro si concentra su proprio questioni relative al campo della medicina. In particolare si occupa di provare a riconoscere se le stenosi coronariche di un paziente sono gravi o meno attraverso l’uso di angiografie coronariche invasive e tomografie coronariche angiografiche; in maniera da diminuire delle angiografie coronariche invasive effettuate su pazienti che non ne hanno davvero bisogno.
Resumo:
In questa tesi si trattano lo studio e la sperimentazione di un modello generativo retrieval-augmented, basato su Transformers, per il task di Abstractive Summarization su lunghe sentenze legali. La sintesi automatica del testo (Automatic Text Summarization) è diventata un task di Natural Language Processing (NLP) molto importante oggigiorno, visto il grandissimo numero di dati provenienti dal web e banche dati. Inoltre, essa permette di automatizzare un processo molto oneroso per gli esperti, specialmente nel settore legale, in cui i documenti sono lunghi e complicati, per cui difficili e dispendiosi da riassumere. I modelli allo stato dell’arte dell’Automatic Text Summarization sono basati su soluzioni di Deep Learning, in particolare sui Transformers, che rappresentano l’architettura più consolidata per task di NLP. Il modello proposto in questa tesi rappresenta una soluzione per la Long Document Summarization, ossia per generare riassunti di lunghe sequenze testuali. In particolare, l’architettura si basa sul modello RAG (Retrieval-Augmented Generation), recentemente introdotto dal team di ricerca Facebook AI per il task di Question Answering. L’obiettivo consiste nel modificare l’architettura RAG al fine di renderla adatta al task di Abstractive Long Document Summarization. In dettaglio, si vuole sfruttare e testare la memoria non parametrica del modello, con lo scopo di arricchire la rappresentazione del testo di input da riassumere. A tal fine, sono state sperimentate diverse configurazioni del modello su diverse tipologie di esperimenti e sono stati valutati i riassunti generati con diverse metriche automatiche.
Resumo:
Il periodo in cui viviamo rappresenta la cuspide di una forte e rapida evoluzione nella comprensione del linguaggio naturale, raggiuntasi prevalentemente grazie allo sviluppo di modelli neurali. Nell'ambito dell'information extraction, tali progressi hanno recentemente consentito di riconoscere efficacemente relazioni semantiche complesse tra entità menzionate nel testo, quali proteine, sintomi e farmaci. Tale task -- reso possibile dalla modellazione ad eventi -- è fondamentale in biomedicina, dove la crescita esponenziale del numero di pubblicazioni scientifiche accresce ulteriormente il bisogno di sistemi per l'estrazione automatica delle interazioni racchiuse nei documenti testuali. La combinazione di AI simbolica e sub-simbolica può consentire l'introduzione di conoscenza strutturata nota all'interno di language model, rendendo quest'ultimi più robusti, fattuali e interpretabili. In tale contesto, la verbalizzazione di grafi è uno dei task su cui si riversano maggiori aspettative. Nonostante l'importanza di tali contributi (dallo sviluppo di chatbot alla formulazione di nuove ipotesi di ricerca), ad oggi, risultano assenti contributi capaci di verbalizzare gli eventi biomedici espressi in letteratura, apprendendo il legame tra le interazioni espresse in forma a grafo e la loro controparte testuale. La tesi propone il primo dataset altamente comprensivo su coppie evento-testo, includendo diverse sotto-aree biomediche, quali malattie infettive, ricerca oncologica e biologia molecolare. Il dataset introdotto viene usato come base per l'addestramento di modelli generativi allo stato dell'arte sul task di verbalizzazione, adottando un approccio text-to-text e illustrando una tecnica formale per la codifica di grafi evento mediante testo aumentato. Infine, si dimostra la validità degli eventi per il miglioramento delle capacità di comprensione dei modelli neurali su altri task NLP, focalizzandosi su single-document summarization e multi-task learning.
Resumo:
L'estrazione automatica degli eventi biomedici dalla letteratura scientifica ha catturato un forte interesse nel corso degli ultimi anni, dimostrandosi in grado di riconoscere interazioni complesse e semanticamente ricche espresse all'interno del testo. Purtroppo però, esistono davvero pochi lavori focalizzati sull'apprendimento di embedding o di metriche di similarità per i grafi evento. Questa lacuna lascia le relazioni biologiche scollegate, impedendo l'applicazione di tecniche di machine learning che potrebbero dare un importante contributo al progresso scientifico. Approfittando dei vantaggi delle recenti soluzioni di deep graph kernel e dei language model preaddestrati, proponiamo Deep Divergence Event Graph Kernels (DDEGK), un metodo non supervisionato e induttivo in grado di mappare gli eventi all'interno di uno spazio vettoriale, preservando le loro similarità semantiche e strutturali. Diversamente da molti altri sistemi, DDEGK lavora a livello di grafo e non richiede nè etichette e feature specifiche per un determinato task, nè corrispondenze note tra i nodi. A questo scopo, la nostra soluzione mette a confronto gli eventi con un piccolo gruppo di eventi prototipo, addestra delle reti di cross-graph attention per andare a individuare i legami di similarità tra le coppie di nodi (rafforzando l'interpretabilità), e impiega dei modelli basati su transformer per la codifica degli attributi continui. Sono stati fatti ampi esperimenti su dieci dataset biomedici. Mostriamo che le nostre rappresentazioni possono essere utilizzate in modo efficace in task quali la classificazione di grafi, clustering e visualizzazione e che, allo stesso tempo, sono in grado di semplificare il task di semantic textual similarity. Risultati empirici dimostrano che DDEGK supera significativamente gli altri modelli che attualmente detengono lo stato dell'arte.
Resumo:
In questo elaborato di tesi si affronta uno studio inerente alla Manutenzione su Condizione (CBM), applicata ad una macchina automatica adibita alla produzione di capsule in plastica, in collaborazione con il gruppo SACMI S.C. di Imola. Nel Capitolo 1 viene fornita una introduzione sul tema della manutenzione e sulla sua evoluzione dalla prima rivoluzione industriale ad oggi. Nel Capitolo 2 vengono descritti i principi teorici della manutenzione predittiva e se ne analizza lo stato dell’arte. Nel Capitolo 3 viene fornita una introduzione sull’azienda SACMI S.C. e in seguito vengono descritte nel dettaglio le macchine sulle quali si sono concentrate le successive analisi. Nel Capitolo 4 viene approfondito l’estrusore, uno dei componenti principali delle macchine analizzate. Nel Capitolo 5 viene presentato un esempio di valutazione dell’efficienza di alcune macchine collegate in serie attraverso il calcolo di un indicatore chiamato Overall Equipment Effectiveness (OEE). Il Capitolo 6 rappresenta il cuore della tesi e contiene tutte le analisi di CBM effettuate durante il periodo di tirocinio. Vengono analizzati i principali gruppi funzionali della macchina a partire da quelli più critici per tempi o costi di manutenzione. Le analisi sono state condotte ricercando all’interno di tutto il parco macchine quelle che presentavano delle condizioni di funzionamento sospette. Nel Capitolo 7 vengono presentate alcune analisi relative ai tempi di fermo macchina dovuti alle manutenzioni preventive e ai costi dei ricambi previsti dal manuale di manutenzione. Queste analisi vengono poi declinate su un caso reale nel quale si calcola il costo dei ricambi negli ultimi cinque anni distinguendo tra costi dovuti ad azioni preventive o correttive. Nel Capitolo 8 vengono presentate le conclusioni, mentre nel Capitolo 9 sono presentati gli sviluppi futuri di questo lavoro.
Resumo:
Questa tesi di laurea si pone l’obiettivo di investigare alcune delle nuove frontiere offerte dalla crescita sincretica e multidisciplinare dei linguaggi digitali applicati all’architettura e ai beni culturali. Si approfondiranno i concetti teorici fondamentali dell’informazione digitale: il web semantico come ambiente di scambio, i metadata come informazioni sui dati, i LOD (Link Open Data) come standard e fine. Per l’ambito dei beni culturali verranno presentati i temi di ricerca e sviluppo nel campo della catalogazione e fruizione digitali: ontologie, dizionari normalizzati aperti, database (Catalogo Digitale), etc. Per l’ambito edilizio-architettonico verrà introdotto l’Heritage Building Information Modeling (HBIM) semantico come metodologia multidisciplinare focalizzata su rilievo geometrico, modellazione, archiviazione e scambio di tutte le informazioni utili alla conoscenza e conservazione dei beni storici. Il punto d’incontro tra i due mondi è individuato nella possibilità di arricchire le geometrie attraverso la definizione di una semantica (parametri-metadati) relazionata alle informazioni (valori-dati) presenti nei cataloghi digitali, creando di fatto un modello 3D per architetture storiche con funzione di database multidisciplinare. Sarà presentata la piattaforma web-based Inception, sviluppata dall’omonima startup incubata come spinoff dall’Università di Ferrara, che, tra le diverse applicazioni e potenzialità, verrà utilizzata come strumento per la condivisione e fruizione, garantendo la possibilità di interrogare geometrie e metadati in continuità con i principi LOD. Verrà definito un workflow generale (procedure Scan2BIM, modellazione geometrica, definizione script per l’estrazione automatica dei dati dal Catalogo Digitale, associazione dati-geometrie e caricamento in piattaforma) successivamente applicato e adattato alle precise necessità del caso studio: la Chiesa di S. Maria delle Vergini (MC), su commissione dell’ICCD referente al MiBACT.
Resumo:
Le fratture fragili del collo del femore rappresentano un grave problema sociosanitario, in via di aggravamento a causa dell’aumento dell’età media e dell’aspettativa di vita. Il verificarsi di tale evento dipende da più fattori: la frequenza con la quale si verificano cadute, la gravità delle stesse e lo stato di salute del paziente, in particolare la resistenza meccanica delle sue ossa e il suo grado di controllo neuro-motorio. Negli ultimi anni gli strumenti di analisi e stima della resistenza meccanica del femore basati su modelli agli elementi finiti hanno raggiunto un tale livello di maturità da prospettarne l’utilizzo nel contesto di “in silico trials”, ovvero la simulazione virtuale di sperimentazioni cliniche e precliniche. In questo studio si è sviluppato un modello stocastico in grado di simulare la sperimentazione clinica di nuovi trattamenti per l’osteoporosi. Questo comprende più sotto modelli in grado di simulare il processo di invecchiamento, determinare stocasticamente le cadute che si verificano in una certa popolazione in un determinato orizzonte temporale e l’entità delle forze che agiscono sul grande trocantere. In particolare, le cadute sono state generate a partire da una distribuzione di Poisson e le forze sono state stimate attraverso un modello stocastico multiscala. La tesi si è concentrata su aspetti metodologici e procedurali, nell’ottica di sviluppare un modello che permettesse agevolmente la variazione dei parametri associati alla caduta, dotato di buone robustezza ed applicabilità. È stato verificato come la discretizzazione nel dominio del tempo del rimodellamento osseo non influisca significativamente nella determinazione delle fratture; inoltre, il modello si è dimostrato capace di fornire risultati stabili in modo computazionalmente efficiente. La validazione dei risultati del modello, invece, ha dato risultati non soddisfacenti, per cui sarà necessario procedere in futuro a un’attenta calibrazione dei parametri del modello.
Resumo:
Introduzione La pneumonectomia su modello animale potrebbe essere un’utile piattaforma di studio per approfondire i meccanismi della risposta compensatoria al danno polmonare. Scopo dello studio è determinare la presenza di variazioni morfologiche e di espressione del trascrittoma dopo pneumonectomia. Materiali e metodi Undici suini sono stati sottoposti a pneumonectomia sinistra. Sono stati eseguiti prelievi sito-specifici intraoperatori su polmone sinistro e successivamente confrontati con prelievi sito-specifici su polmone destro dopo eutanasia a 60 giorni. I prelievi degli animali con decorso regolare sono stati sottoposti a RNA-sequencing e successiva analisi computazionale per valutare il peso funzionale del singolo gene o di clusters di geni. Risultati Un animale è stato escluso per insorgenza di ernia diaframmatica. In 7/10 è stata riscontrata apertura della pleura mediastinica con parziale erniazione del polmone controlaterale e shift mediastinico. L’istologia ha mostrato dilatazione degli spazi aerei, rottura dei setti interalveolari, lieve infiammazione, assenza di fibrosi, stiramento radiale dei bronchi e riduzione del letto capillare. L’analisi di bulk RNA-sequencing ha identificato 553 geni espressi in modo differenziale (DEG)(P<0,001) tra pre e post-pneumonectomia. I primi 10 DEG up-regolati: Edn1, Areg, Havcr2, Gadd45g, Depp1, Cldn4, Atf3, Myc, Gadd45b, Socs3; i primi 10 geni down-regolati: Obscn, Cdkn2b, ENSSSCG00000015738, Prrt2, Amer1, Flrt3, Efnb2, Tox3, Znf793, Znf365. Tra i DEG è stata riscontrata una predominanza di geni specifici dei macrofagi. L’analisi di gene ontology basata su DAVID ha mostrato un significativo arricchimento della "via di segnalazione apoptotica estrinseca"(FDR q=7,60x10 -3), della via di “Risposta all’insulina”(FDR q=7,60x10 -3) ed un arricchimento di geni “Regolatori negativi del segnale DDX58/IFIH1”(FDR q=7.50x10 -4). Conclusioni Il presente studio conferma la presenza di variazioni macroscopiche e microscopiche fenotipiche dopo pneumonectomia. L’RNA sequencing e lo studio di genomica traslazionale hanno mostrato l’esistenza di geni singoli e di network di geni disregolati dopo pneumonectomia, prevalentemente in determinate popolazioni cellulari.