872 resultados para Optimisation granulaire
Resumo:
We consider the problem of multiple correlated sparse signals reconstruction and propose a new implementation of structured sparsity through a reweighting scheme. We present a particular application for diffusion Magnetic Resonance Imaging data and show how this procedure can be used for fibre orientation reconstruction in the white matter of the brain. In that framework, our structured sparsity prior can be used to exploit the fundamental coherence between fibre directions in neighbour voxels. Our method approaches the ℓ0 minimisation through a reweighted ℓ1-minimisation scheme. The weights are here defined in such a way to promote correlated sparsity between neighbour signals.
Resumo:
It is well established that cytotoxic T lymphocytes play a pivotal role in the protection against intracellular pathogens and tumour cells. Such protective immune responses rely on the specific T cell receptor (TCR)-mediated recognition by CD8 T cells of small antigenic peptides presented in the context of class-I Major Histocompatibility Complex molecules (pMHCs) on the surface of infected or malignant cells. The strength (affinity/avidity) of this interaction is a major correlate of protection. Although tumour-reactive CD8 T cells can be observed in cancer patients, anti-tumour immune responses are often ineffective in controlling or eradicating the disease due to the relative low TCR affinity of these cells. To overcome this limitation, tumour-specific CD8 T cells can be genetically modified to express TCRs of improved binding strength against a defined tumour antigen before adoptive cell transfer into cancer patients. We previously generated a panel of TCRs specific for the cancer-testis antigen NY-ESO-l,57.165 with progressively increased affinities for the pMHC complex, thus providing us with a unique tool to investigate the causal link between the surface expression of such TCRs and T cell activation and function. We recently demonstrated that anti-tumour CD8 T cell reactivity could only be improved within physiological affinity limits, beyond which drastic functional declines were observed, suggesting the presence of multiple regulatory mechanisms limiting T cell activation and function in a TCR affinity-dependent manner. The overarching goal of this thesis was (i) to assess the precise impact of TCR affinity on T cell activation and signalling at the molecular level and (ii) to gain further insights on the mechanisms that regulate and delimitate maximal/optimized CD8 T cell activation and signalling. Specifically, by combining several technical approaches we characterized the activation status of proximal (i.e. CD3Ç, Lek, and ZAP-70) and distal (i.e. ERK1/2) signalling molecules along the TCR affinity gradient. Moreover, we assessed the extent of TCR downmodulation, a critical step for initial T cell activation. CD8 T cells engineered with the optimal TCR affinity variants showed increased activation levels of both proximal and distal signalling molecules when compared to the wild-type T cells. Our analyses also highlighted the "paradoxical" status of tumour-reactive CD8 T cells bearing very high TCR affinities, which retained strong proximal signalling capacity and TCR downmodulation, but were unable to propagate signalling distally (i.e. pERKl/2), resulting in impaired cell-mediated functions. Importantly, these very high affinity T cells displayed maximal levels of SHP-1 and SHP-2 phosphatases, two negative regulatory molecules, and this correlated with a partial pERKl/2 signalling recovery upon pharmacological SHP-l/SHP-2 inhibition. These findings revealed the putative presence of inhibitory regulators of the TCR signalling cascade acting very rapidly following tumour-specific stimulation. Moreover, the very high affinity T cells were only able to transiently express enhanced proximal signalling molecules, suggesting the presence of an additional level of regulation that operates through the activation of negative feedback loops over time, limiting the duration of the TCR-mediated signalling. Overall, the determination of TCR-pMHC binding parameters eliciting optimal CD8 T cell activation, signalling, and effector function while guaranteeing high antigen specificity, together with the identification of critical regulatory mechanisms acting proximally in the TCR signalling cascade, will directly contribute to optimize and support the development of future TCR-based adoptive T cell strategies for the treatment of malignant diseases. -- Les lymphocytes T CD8 cytotoxiques jouent un rôle prédominant dans la protection contre les pathogènes intracellulaires et les cellules tumorales. Ces réponses immunitaires dépendent de la spécificité avec laquelle les récepteurs T (TCR) des lymphocytes CD8 reconnaissent les peptides antigéniques présentés par les molécules du complexe Majeur de Histocompatibilité de classe I (pCMH) à la surface des cellules infectées ou malignes. La force (ou affinité/avidité) de l'interaction du TCR-pCMH est un corrélat majeur de protection. Les réponses immunitaires sont cependant souvent inefficaces et ne permettent pas de contrôler ou d'éliminer les cellules tumorales chez les patients atteint du cancer, et ce à cause de la relative faible reconnaissance des TCRs exprimés par les lymphocytes T CD8 envers les antigènes tumoraux. Afin de surmonter cette limitation, les cellules T anti-tumorales peuvent être génétiquement modifiées en les dotant de TCRs préalablement optimisés afin d'augmenter leur reconnaissance ou affinité contre les antigènes tumoraux, avant leur ré¬infusion dans le patient. Nous avons récemment généré des cellules T CD8 exprimant un panel de TCRs spécifiques pour l'antigène tumoral NY-ESO-l157.16J avec des affinités croissantes, permettant ainsi d'investiguer la causalité directe entre l'affinité du TCR-pCMH et la fonction des cellules T CD8. Nous avons démontré que la réactivité anti-tumorale pouvait être améliorée en augmentant l'affinité du TCR dans une intervalle physiologique, mais au delà duquel nous observons un important déclin fonctionnel. Ces résultats suggèrent la présence de mécanismes de régulation limitant l'activation des cellules T de manière dépendante de l'affinité du TCR. Le but de cette thèse a été (i) de définir l'impact précis de l'affinité du TCR sur l'activation et la signalisation des cellules T CD8 au niveau moléculaire et (ii) d'acquérir de nouvelles connaissances sur les mécanismes qui régulent et délimitent l'activation et la signalisation maximale des cellules T CD8 optimisées. Spécifiquement, en combinant plusieurs approches technologiques, nous avons caractérisé l'état d'activation de différentes protéines de la voie de signalisation proximale (CD3Ç, Lek et ZAP-70) et distale (ERK1/2) le long du gradient d'affinité du TCR, ainsi que l'internalisation du TCR, une étape clef dans l'activation initiale des cellules T. Les lymphocytes T CD8 exprimant des TCRs d'affinité optimale ont montré des niveaux d'activation augmentés des molécules proximales et distales par rapport aux cellules de type sauvage (wild-type). Nos analyses ont également mis en évidence un paradoxe chez les cellules T CD8 équipées avec des TCRs de très haute affinité. En effet, ces cellules anti-tumorales sont capables d'activer leurs circuits biochimiques au niveau proximal et d'internaliser efficacement leur TCR, mais ne parviennent pas à propager les signaux biochimiques dépendants du TCR jusqu'au niveau distal (via phospho-ERKl/2), avec pour conséquence une limitation de leur capacité fonctionnelle. Finalement, nous avons démontré que SHP-1 et SHP-2, deux phosphatases avec des propriétés régulatrices négatives, étaient majoritairement exprimées dans les cellules T CD8 de très hautes affinités. Une récupération partielle des niveaux d'activation de ERK1/2 a pu être observée après l'inhibition pharmacologique de ces phosphatases. Ces découvertes révèlent la présence de régulateurs moléculaires qui inhibent le complexe de signalisation du TCR très rapidement après la stimulation anti-tumorale. De plus, les cellules T de très hautes affinités ne sont capables d'activer les molécules de la cascade de signalisation proximale que de manière transitoire, suggérant ainsi un second niveau de régulation via l'activation de mécanismes de rétroaction prenant place progressivement au cours du temps et limitant la durée de la signalisation dépendante du TCR. En résumé, la détermination des paramètres impliqués dans l'interaction du TCR-pCMH permettant l'activation de voies de signalisation et des fonctions effectrices optimales ainsi que l'identification des mécanismes de régulation au niveau proximal de la cascade de signalisation du TCR contribuent directement à l'optimisation et au développement de stratégies anti-tumorales basées sur l'ingénierie des TCRs pour le traitement des maladies malignes.
Resumo:
La tomodensitométrie (TDM) est une technique d'imagerie pour laquelle l'intérêt n'a cessé de croitre depuis son apparition au début des années 70. De nos jours, l'utilisation de cette technique est devenue incontournable, grâce entre autres à sa capacité à produire des images diagnostiques de haute qualité. Toutefois, et en dépit d'un bénéfice indiscutable sur la prise en charge des patients, l'augmentation importante du nombre d'examens TDM pratiqués soulève des questions sur l'effet potentiellement dangereux des rayonnements ionisants sur la population. Parmi ces effets néfastes, l'induction de cancers liés à l'exposition aux rayonnements ionisants reste l'un des risques majeurs. Afin que le rapport bénéfice-risques reste favorable au patient il est donc nécessaire de s'assurer que la dose délivrée permette de formuler le bon diagnostic tout en évitant d'avoir recours à des images dont la qualité est inutilement élevée. Ce processus d'optimisation, qui est une préoccupation importante pour les patients adultes, doit même devenir une priorité lorsque l'on examine des enfants ou des adolescents, en particulier lors d'études de suivi requérant plusieurs examens tout au long de leur vie. Enfants et jeunes adultes sont en effet beaucoup plus sensibles aux radiations du fait de leur métabolisme plus rapide que celui des adultes. De plus, les probabilités des évènements auxquels ils s'exposent sont également plus grandes du fait de leur plus longue espérance de vie. L'introduction des algorithmes de reconstruction itératifs, conçus pour réduire l'exposition des patients, est certainement l'une des plus grandes avancées en TDM, mais elle s'accompagne de certaines difficultés en ce qui concerne l'évaluation de la qualité des images produites. Le but de ce travail est de mettre en place une stratégie pour investiguer le potentiel des algorithmes itératifs vis-à-vis de la réduction de dose sans pour autant compromettre la qualité du diagnostic. La difficulté de cette tâche réside principalement dans le fait de disposer d'une méthode visant à évaluer la qualité d'image de façon pertinente d'un point de vue clinique. La première étape a consisté à caractériser la qualité d'image lors d'examen musculo-squelettique. Ce travail a été réalisé en étroite collaboration avec des radiologues pour s'assurer un choix pertinent de critères de qualité d'image. Une attention particulière a été portée au bruit et à la résolution des images reconstruites à l'aide d'algorithmes itératifs. L'analyse de ces paramètres a permis aux radiologues d'adapter leurs protocoles grâce à une possible estimation de la perte de qualité d'image liée à la réduction de dose. Notre travail nous a également permis d'investiguer la diminution de la détectabilité à bas contraste associée à une diminution de la dose ; difficulté majeure lorsque l'on pratique un examen dans la région abdominale. Sachant que des alternatives à la façon standard de caractériser la qualité d'image (métriques de l'espace Fourier) devaient être utilisées, nous nous sommes appuyés sur l'utilisation de modèles d'observateurs mathématiques. Nos paramètres expérimentaux ont ensuite permis de déterminer le type de modèle à utiliser. Les modèles idéaux ont été utilisés pour caractériser la qualité d'image lorsque des paramètres purement physiques concernant la détectabilité du signal devaient être estimés alors que les modèles anthropomorphes ont été utilisés dans des contextes cliniques où les résultats devaient être comparés à ceux d'observateurs humain, tirant profit des propriétés de ce type de modèles. Cette étude a confirmé que l'utilisation de modèles d'observateurs permettait d'évaluer la qualité d'image en utilisant une approche basée sur la tâche à effectuer, permettant ainsi d'établir un lien entre les physiciens médicaux et les radiologues. Nous avons également montré que les reconstructions itératives ont le potentiel de réduire la dose sans altérer la qualité du diagnostic. Parmi les différentes reconstructions itératives, celles de type « model-based » sont celles qui offrent le plus grand potentiel d'optimisation, puisque les images produites grâce à cette modalité conduisent à un diagnostic exact même lors d'acquisitions à très basse dose. Ce travail a également permis de clarifier le rôle du physicien médical en TDM: Les métriques standards restent utiles pour évaluer la conformité d'un appareil aux requis légaux, mais l'utilisation de modèles d'observateurs est inévitable pour optimiser les protocoles d'imagerie. -- Computed tomography (CT) is an imaging technique in which interest has been quickly growing since it began to be used in the 1970s. Today, it has become an extensively used modality because of its ability to produce accurate diagnostic images. However, even if a direct benefit to patient healthcare is attributed to CT, the dramatic increase in the number of CT examinations performed has raised concerns about the potential negative effects of ionising radiation on the population. Among those negative effects, one of the major risks remaining is the development of cancers associated with exposure to diagnostic X-ray procedures. In order to ensure that the benefits-risk ratio still remains in favour of the patient, it is necessary to make sure that the delivered dose leads to the proper diagnosis without producing unnecessarily high-quality images. This optimisation scheme is already an important concern for adult patients, but it must become an even greater priority when examinations are performed on children or young adults, in particular with follow-up studies which require several CT procedures over the patient's life. Indeed, children and young adults are more sensitive to radiation due to their faster metabolism. In addition, harmful consequences have a higher probability to occur because of a younger patient's longer life expectancy. The recent introduction of iterative reconstruction algorithms, which were designed to substantially reduce dose, is certainly a major achievement in CT evolution, but it has also created difficulties in the quality assessment of the images produced using those algorithms. The goal of the present work was to propose a strategy to investigate the potential of iterative reconstructions to reduce dose without compromising the ability to answer the diagnostic questions. The major difficulty entails disposing a clinically relevant way to estimate image quality. To ensure the choice of pertinent image quality criteria this work was continuously performed in close collaboration with radiologists. The work began by tackling the way to characterise image quality when dealing with musculo-skeletal examinations. We focused, in particular, on image noise and spatial resolution behaviours when iterative image reconstruction was used. The analyses of the physical parameters allowed radiologists to adapt their image acquisition and reconstruction protocols while knowing what loss of image quality to expect. This work also dealt with the loss of low-contrast detectability associated with dose reduction, something which is a major concern when dealing with patient dose reduction in abdominal investigations. Knowing that alternative ways had to be used to assess image quality rather than classical Fourier-space metrics, we focused on the use of mathematical model observers. Our experimental parameters determined the type of model to use. Ideal model observers were applied to characterise image quality when purely objective results about the signal detectability were researched, whereas anthropomorphic model observers were used in a more clinical context, when the results had to be compared with the eye of a radiologist thus taking advantage of their incorporation of human visual system elements. This work confirmed that the use of model observers makes it possible to assess image quality using a task-based approach, which, in turn, establishes a bridge between medical physicists and radiologists. It also demonstrated that statistical iterative reconstructions have the potential to reduce the delivered dose without impairing the quality of the diagnosis. Among the different types of iterative reconstructions, model-based ones offer the greatest potential, since images produced using this modality can still lead to an accurate diagnosis even when acquired at very low dose. This work has clarified the role of medical physicists when dealing with CT imaging. The use of the standard metrics used in the field of CT imaging remains quite important when dealing with the assessment of unit compliance to legal requirements, but the use of a model observer is the way to go when dealing with the optimisation of the imaging protocols.
Resumo:
Récemment encore, la neuro-genèse chez le primate adulte était supposée limitée aux régions précises que sont le bulbe olfactif, la zone sous-granulaire de l'hippocampe et la région sous- ventriculaire. Depuis lors, des cellules neurales progénitrices distribuées dans l'ensemble du cortex du primate adulte furent mises en évidence. Cultivées in vitro, ces cellules forment des écosystèmes cellulaires nerveux constitués de progéniteurs neuronaux, d'astrocytes et d'oligo- dendrocytes. Transplantés sur un modèle de primate parkinsonien, certains progéniteurs complètent leur différentiation en neurones matures et développent des propriétés neuro- trophiques et neuro-protectrices. Injectées aux environs d'une lésion cérébrale, ces cellules offrent un bénéfice fonctionnel et comportemental significatif. Le présent projet mesure l'activité électro-physiologique du tissu nerveux obtenu par culture de biopsies corticales humaines adultes, de sorte à déterminer son aptitude à intégrer l'information. Des biopsies corticales humaines adultes furent cultivées in vitro avec succès sur un support Micro-Electrode-Array. Cette technologie permet l'acquisition d'enregistrements électro- physiologiques à l'échelle des circuits, au sein d'un tissu maintenu en culture. En parallèle, une mesure de l'activité à l'échelle cellulaire fut obtenue par l'application du Patch Clamp à des cellules cultivées sur un support de verre. Malgré une culture prolongée et l'induction d'une différentiation neuronale, aucune activité électro-physiologique significative ne put être démontrée. Une analyse phénotypique à un stade intermédiaire de culture montra l'expression prometteuse du marqueur neuronal précoce β-Tubulin-III. Cependant, après l'induction d'une différenciation neuronale, la surprenante co-expression de marqueurs astroglial (GFAP) et neuronal (MAP2) fut constatée. Le silence électro-physiologique issu des enregistrements sur MEA peut être l'oeuvre d'un isolement des cellules électriquement actives, et d'un défaut d'organisation en réseau. Une interposition de tissu glial entre neurones et électrodes peut également absorber le signal. Par ailleurs, les cellules enregistrées par Patch Clamp furent déterminées selon le seul critère morphologique ; leur nature exacte demeure inconnue. Les analyses phénotypiques laissent supposer l'entrée dans une voie de maturation neuronale par l'expression du marqueur β- Tubulin-III. Toutefois le phénotype exprimé au terme du processus de culture reste incertain. Des facteurs de maturation ou environnementaux semblent faire défaut à la complétion d'une différentiation neuronale. La culture de neurones bien différenciés et électriquement actifs appelle de nouvelles études in vivo, ainsi qu'une analyse fine des voies intracellulaires de maturation.
Resumo:
1.1 Contexte1 Depuis 20 ans, l'OMS (Organisation Mondiale de la Santé) et l'UNICEF (United Nations International Children's Emergency Fund) ont élaboré un programme basé sur l'EBM (evidence Based Medicine) pour aider les pays en voie de développement à diminuer la mortalité infantile dans leur pays. Le succès de la Prise en Charge Intégrée de la Maladie de l'Enfant (PCIME) a permis de l'implanter dans plus de 100 pays en proposant une stratégie sur 3 plans : amélioration des compétences du personnel soignant, amélioration globale du système de santé et amélioration des pratiques familiales et communautaires en matière de santé. 1.2 Objectifs Cette étude évalue l'impact de l'utilisation des arbres décisionnels et des fiches-types de prise en charge proposés par la PCIME dans un hôpital de pays développé tel que l'HEL (Hôpital de l'Enfance). Nous adapterons les modèles pour 2 populations distinctes, le nourrisson âgé de 1 semaine à 2 mois et l'enfant dyspnéique âgé de 2 mois à 5 ans. 1.3 Méthode Dans une première phase, les prises en charge à l'HEL sont analysées par une grille d'évaluation standardisée permettant de les comparer à la prise en charge type PECIME. Les items insuffisamment effectués selon la grille d'évaluation sont présentés aux médecins avec un rappel du rôle de chacun. La seconde partie évalue l'amélioration obtenue dans les prises en charge. Les résultats des deux études vont permettre l'élaboration d'un premier questionnaire et d'une fiche de type check list pour les parents. L'étude évalue deux prises en charge cliniques distinctes. D'une part les nourrissons âgés de 1 semaine à 2 mois et d'autre part les jeunes enfants âgés entre 2 mois et 5 ans qui se présentent avec une dyspnée aux urgences de l'HEL. 1.4 Résultats escomptés Par le biais d'une récolte de données suffisante et d'une formation dispensée entre les deux phases de l'étude, nous nous attendons à une optimisation de la prise en charge des enfants et de leur famille. 1.5 Plus-value escomptée Nous aimerions qu'une telle étude puisse amener des clefs pour une prise en charge complète de l'enfant et de sa famille, en mettant l'accent sur les points essentiels des différentes parties d'une consultation.
Resumo:
Les mécanismes qui régulent le processus de guérison de la peau lésée ne sont pas entièrement compris. Nous avons précédemment montré que les cellules dendritiques plasmocytoïdes (pDCs) sont normalement absentes de la peau saine mais infiltrent rapidement la peau humaine ainsi que celle des souris après une blessure cutanée. Après avoir infiltré la peau, ces pDCs sont capables de détecter les acides nucléiques par l'expression des récepteurs de type Toll 7 et 9 ce qui les active à produire de 1' interféron (IFN) de type I. Ce processus est primordial pour la re- épithélisation des blessures cutanées. Cependant, les mécanismes conduisant à l'infiltration et à 1'activation des pDCs restent inconnus. Dans notre projet, nous montrons que la chimiokine CxcllO est responsable de l'infiltration des pDCs. De façon importante, nous démontrons que les neutrophiles qui infiltrent également la peau lésée sont la source majeure de cette chimiokine. La déplétion des neutrophiles abolit d'ailleurs le recrutement des pDCs confirmant ainsi que CxcllO produit par les neutrophiles est responsable de l'infiltration des pDCs dans la peau endommagée. De façon intéressante, nous avons trouvé que CxcllO en plus de son activité chimiotactique, est capable de former des complexes avec l'ADN et d'activer ainsi les pDCs à produire de l'IFN de type I. De plus, nous avons observé que les neutrophiles qui infiltrent la peau forment des Neutrophil Extracellular Traps (NETs). Ces NETs sont constitués de filaments extracellulaires d'ADN recouverts par de nombreuses protéines principalement d'origine granulaire. D'une manière frappante, le blocage de la NETose ou l'utilisation de souris déficientes pour la formation de NETs altère le recrutement et l'activation des pDCs ainsi que la réponse inflammatoire qui en découle ainsi que le processus de re-epithélisation qui s'ensuit. En prenant en compte toutes ces données, nos résultats démontrent que suite à une blessure de la peau, les neutrophiles par la production de CxcllO contrôlent l'infiltration des pDCs dans la peau lésée et par la formation de NETs, promeuvent l'activation des pDCs. Notre étude fournit donc de nouvelles informations sur les mécanismes de guérison de la peau et ouvre de nouvelles perspectives thérapeutiques quant à la réparation tissulaire de la peau soit dans le but de l'amplifier ou de l'inhiber. -- The mechanisms that regulate healing of the injured skin are not well understood. We have previously shown that plasmacytoid dendritic cells (pDCs) are normally absent from the healthy skin, but rapidly infiltrate both murine and human skin upon injury. Upon skin infiltration, pDCs sense nucleic acids via TLR7/TLR9 and are activated to produce type I interferon (IFN), a process that is crucial for re-epithelialisation of skin wounds. However, the mechanisms that drive pDCs recruitment and activation in injured skin remain unclear. We show that CxcllO is responsible for pDCs infiltration. Importantly, we demonstrate that skin infiltrating neutrophils are the major source of this chemokine. Neutrophils depletion completely abrogated pDCs recruitment confirming that CxcllO- driven pDCs recruitment is controlled by neutrophils. Interestingly, CxcllO was also found to form complexes with DNA and to activate pDCs to produce Type I IFN in addition to its chemotactic activity. Moreover, we observed that infiltrating neutrophils release Neutrophils Extracellular Traps (NETs) composed of DNA filaments decorated with neutrophils-derived proteins. Strikingly, blocking NETosis or using mice deficient for NETs production impaired pDCs recruitment and activation as well as the subsequent inflammatory response and the re-epithelialisation process. Altogether, these data demonstrate that upon skin injury, neutrophils control pDCs infiltration into the injured skin by the release of CxcllO and via the production of NETs, they allow complex formation between CxcllO and NET-DNA leading to pDCs activation. Our findings provide new insights into the mechanisms of wound healing and open new avenues for potential therapeutic interventions to boost or inhibit wound repair in the skin.
Resumo:
Introduction: L'hyperglycémie est un phénomène connu chez les patients gravement agressés, et surtout chez ceux nécessitant un séjour aux soins intensifs, alors que l'hypoglycémie est une complication menaçante. Des valeurs de glycémies anormales sont associées avec une mortalité et morbidité augmentées chez les patients de soins intensifs, y compris les grands brûlés. Des glycémies jusqu'à 15mmol/l ont longtemps été tolérées sans traitement. En 2001, une grande étude randomisée a complètement changé les pratiques du contrôle glycémique aux soins intensifs. Van den Berghe et al. ont montré qu'un contrôle glycémique strict atteint au moyen d'une « intensive insulin therapy » (HT) visant une glycémie 4.1-6.0 mmol/l réduisait la mortalité chez les patients chirurgicaux traités plus que 5. Par la suite plusieurs études contradictoires ont questionné la validité externe de l'étude de Louvain: avec la publication de l'étude « NICE-SUGAR » en 2009 enrôlant plus de 6000 patients cette hypothèse a été réfutée, aboutissant à un contrôle modéré de la glycémie (6-8 mmol/l). Bien que plusieurs études sur le contrôle glycémique aient également inclus quelques patients brûlés, à ce jour il n'y a pas de recommandation ferme concernant la gestion de la glycémie chez les patients brûlés adultes. Le but de l'étude était d'évaluer la sécurité du protocole de contrôle de la glycémie qui avait été introduit aux soins intensifs adultes chez des patients grand brûlés nécessitant un traitement prolongé aux soins intensifs. Méthodes : 11 s'agit d'une étude rétrospective uni-centrique sur des patients brûlés admis aux soins intensifs du CHUV à Lausanne entre de 2000 à juin 2014. Critères d'inclusions : Age >16 ans, brûlures nécessitant un traitement aux soins intensifs >10 jours. Critères d'exclusion : Décès ou transfert hors des soins intensifs <10 jours. Les investigations ont été limitées aux 21 premiers jours de l'hospitalisation aux soins intensifs. Variables : Variables démographiques, surface brûlée (TBSA), scores de sévérité, infections, durée d'intubation, durée du séjour aux soins intensifs, mortalité. Variables métaboliques : Administration totale de glucides, énergie et insuline/2411, valeurs de glycémie artérielle et CRP. Quatre périodes (P) ont été analysées, correspondant à l'évolution du protocole de contrôle de glycémie du service. P1: Avant son introduction (2000-2001) ; P2: Contrôle glycémie serré géré par les médecins (2002-2006) ; P3: Contrôle glycémie serré géré par lés infirmières (2007-2010); P4: Contrôle modéré géré par les infirmières (2011-2014). Les limites glycémiques ont été définis de manière suivante: Hypoglycémie extrême <2.3mmol/l ; hypoglycémie modéré <4.0mmol/l ; hyperglycémie modérée 8.1-10.0mmol/l ; hyperglycémie sévère >10.0mmol/l. Toutes les valeurs de glycémies artérielles ont été extraites depuis le système informatisé des soins intensifs (MetaVision ®). Statistiques: Wilcoxon rank test, Two- way Anova, Tuckey Kramer test, area under the curve (AUC), Spearman's test et odds ratio. STATA 12 1 ' StataCorp, College station, TX, USA and JPM V 10.1 (SAS Institute, Cary, NC, USA). Résultats: Sur les 508 patients brûlés admis durant la période étudiée, 229 patients correspondaient aux critères d'inclusion, âgés de 45±20ans (X±SD) et brûlés sur 32±20% de la surface corporelle. Les scores de sévérité sont restés stables. Au total 28'690 glycémies artérielles ont été analysées. La valeur médiane de glycémie est restée stable avec une diminution progressive de la variabilité intra-patient. Après initiation du protocole, les valeurs normoglycémiques ont augmenté de 34.7% à 65.9% avec diminution des événements hypoglycémiques (pas d'hypoglycémie extrême en P4). Le nombre d'hyperglycémies sévères est resté stable durant les périodes 1 à 3, avec une diminution en P4 (9.25%) : les doses d'insuline ont aussi diminué. L'interprétation des résultats de P4 a été compliquée par une diminution concomitante des apports d'énergie et de glucose (p<0.0001). Conclusions: L'application du protocole destiné aux patients de soins intensifs non brûlés a amélioré le contrôle glycémique chez les patients adultes brûlés, aboutissant à une diminution significative de la variabilité des glycémies. Un contrôle modéré de la glycémie peut être appliqué en sécurité, considérant le nombre très faible d'hypoglycémies. La gestion du protocole par les infirmières s'avère plus sûre qu'un contrôle par les médecins, avec diminution des hypoglycémies. Cependant le nombre d'hyperglycémies reste trop élevé. L'hyperglycémie' n'est pas contrôlable uniquement par l'administration d'insuline, mais nécessite également une approche multifactorielle comprenant une optimisation de la nutrition adaptée aux besoins énergétiques élevés des grands brûlés. Plus d'études seront nécessaire pour mieux comprendre la complexité du mécanisme de l'hyperglycémie chez le patient adulte brûlé et pour en améliorer le contrôle glycémique.
Resumo:
This thesis considers aspects related to the design and standardisation of transmission systems for wireless broadcasting, comprising terrestrial and mobile reception. The purpose is to identify which factors influence the technical decisions and what issues could be better considered in the design process in order to assess different use cases, service scenarios and end-user quality. Further, the necessity of cross-layer optimisation for efficient data transmission is emphasised and means to take this into consideration are suggested. The work is mainly related terrestrial and mobile digital video broadcasting systems but many of the findings can be generalised also to other transmission systems and design processes. The work has led to three main conclusions. First, it is discovered that there are no sufficiently accurate error criteria for measuring the subjective perceived audiovisual quality that could be utilised in transmission system design. Means for designing new error criteria for mobile TV (television) services are suggested and similar work related to other services is recommended. Second, it is suggested that in addition to commercial requirements there should be technical requirements setting the frame work for the design process of a new transmission system. The technical requirements should include the assessed reception conditions, technical quality of service and service functionalities. Reception conditions comprise radio channel models, receiver types and antenna types. Technical quality of service consists of bandwidth, timeliness and reliability. Of these, the thesis focuses on radio channel models and errorcriteria (reliability) as two of the most important design challenges and provides means to optimise transmission parameters based on these. Third, the thesis argues that the most favourable development for wireless broadcasting would be a single system suitable for all scenarios of wireless broadcasting. It is claimed that there are no major technical obstacles to achieve this and that the recently published second generation digital terrestrial television broadcasting system provides a good basis. The challenges and opportunities of a universal wireless broadcasting system are discussed mainly from technical but briefly also from commercial and regulatory aspect
Resumo:
Curral Velho es una comunitat tradicional, situada al nord-est de Brasil, que manté una relació directa amb els ecosistemes que la envolten. La comunitat depèn del estat de conservació del medi natura, ja que obtenen diferents serveis ecositemics. En aquest territori es desenvolupen dos tipus d’economies amb unes bases molt diferents. Una economia tradicional, desenvolupada per la pròpia comunitat, que es basa en la propietat col·lectiva del territori i en optimitzar a llarg termini els beneficis que s’obtenen del medi; y un altre com la camaronicultura, la base de la qual es la obtenció de beneficis a curt termini i amb un territori de propietat privada. Aquesta superposició de models de producció genera impactes ambientals, i un conflicte socio-ambiental entre la comunitat i els que desenvolupen la camaronicultura. L’objectiu es realitzar un estudi econòmic de la pesca artesanal de Curral Velho caracteritzant manera de viure, creant una base de dades sobre pesca artesanal i elaborant indicador de beneficis econòmics generats per la pesca artesanal. Per contextualitzar els resultats es va fer un anàlisis de les dos economies existents a la comunitat. Els resultats obtinguts en primer lloc són que l’economia d’explotació intensiva aporta més guanys per les persones de la comunitat que tenen un relació directa que les que es dediquen a la pesca artesanal, però es important no aturar-se aquí: s’ha de realitzar un anàlisis més profund. Com a conclusió, la activitat pesquera es més rentable a llarg termini ja que els recursos extrets de manera sostenible i així són il·limitats y accessibles a tota la comunitat. A diferència de la camaronicultura, la pesca artesanal no genera desigualtats socials ni vulneracions dels drets humans. Tot el contrari, genera forts vincles entre els individus de la comunitat basats en el treball en equip i l’aprenentatge vivencial e intergeneracional.
Resumo:
The identifiability of the parameters of a heat exchanger model without phase change was studied in this Master’s thesis using synthetically made data. A fast, two-step Markov chain Monte Carlo method (MCMC) was tested with a couple of case studies and a heat exchanger model. The two-step MCMC-method worked well and decreased the computation time compared to the traditional MCMC-method. The effect of measurement accuracy of certain control variables to the identifiability of parameters was also studied. The accuracy used did not seem to have a remarkable effect to the identifiability of parameters. The use of the posterior distribution of parameters in different heat exchanger geometries was studied. It would be computationally most efficient to use the same posterior distribution among different geometries in the optimisation of heat exchanger networks. According to the results, this was possible in the case when the frontal surface areas were the same among different geometries. In the other cases the same posterior distribution can be used for optimisation too, but that will give a wider predictive distribution as a result. For condensing surface heat exchangers the numerical stability of the simulation model was studied. As a result, a stable algorithm was developed.
Resumo:
Työn tarkoituksena oli löytää kapillaarielektroforeesimenetelmä (CE), joka soveltuisi metallien neste-nesteuutossa käytettävien orgaanisten uuttofaasien koostumuksen analysointiin. Kapillaarielektroforeesissa käytetyn elektrolyyttiliuoksen analyytti-kohtaista optimointia ei tässä työssä tehty, vaan liikkeelle lähdettiin fenoleille tarkoitetulla menetelmällä. Tarkasteltavia uuttoreagenssiryhmiä olivat hydroksi-oksiimit sekä fosfiinihappo- ja fosforihappopohjaiset reagenssit. Tutkittavia kaupallisia laimentimia olivat Orfom SX 11 ja Shellsol D70. Lisäksi tutkittiin kahta modifiointiainetta, TOPOa (tri-n-oktyylifosfiinioksidi) ja TXIB:tä (2,2,4-trimetyyli-1,3-pentaanidiolidi-isobutyraatti). Työssä tavoiteltiin kapillaarielektroforeesin hyötyjä erityisesti hydrometallurgisessa teollisuudessa. Suurimpana hyötynä ennakoitiin mahdollisuus analysoida suuria molekyylejä, kuten uuttoreagenssi-metallikomplekseja, joita ei pystytä analysoimaan kaasukromatografilla (GC). Näytteet voidaan myös analysoida ilman hidasta ja usein ei-kvantitatiivista derivatisointia. Kirjallisuudesta ei löytynyt aiempia artikkeleita CE:n soveltamisesta kyseisille aiheille. Kapillaarielektroforeesianalyyseissa pystyttiin esimerkiksi havaitsemaan hydroksi-oksiimin kuparikompleksi orgaanisessa faasissa. Seulonta-ajoissa yleisenä ongelmana oli kuitenkin tulosten heikko toistettavuus. Kapillaari-elektro-foreesi-menetelmä tarjoaa selvästi mahdollisuuksia tulevaisuudessa, mutta vielä sillä ei päästy luotettavaan toistoon sähkökentän häiriöiden ja elektrolyyttiliuoksen riittämättömän optimoinnin vuoksi. Lisäksi teollisissa olosuhteissa käytetyille autenttisille hydroksioksiimi- ja fosfiinihapponäytteille tehtiin perinteisiä kaasukromatografia-analyysejä, joiden perusteella voitiin nähdä uuttofaasin koostumuksen muuttuneen prosessissa. Hapettuminen sekä eri hydrolyysireaktiot ovat tärkeimmät syyt reagenssien ja laimentimien muuttumiselle. Näitä hajoamistuotteita ei tässä työssä onnistuttu analysoimaan kapillaarielektroforeesilla.
Resumo:
Antibodies are natural binding proteins produced in vertebrates as a response to invading pathogens and foreign substances. Because of their capability for tight and specific binding, antibodies have found use as binding reagents in research and diagnostics. Properties of cloned recombinant antibodies can be further improved by means of in vitro evolution, combining mutagenesis with subsequent phage display selection. It is also possible to isolate entirely new antibodies from vast naïve or synthetic antibody libraries by phage display. In this study, library techniques and phage display selection were applied in order to optimise binding scaffolds and antigen recognition of antibodies, and to evolve new and improved bioaffinity reagents. Antibody libraries were generated by random and targeted mutagenesis. Expression and stability were mainly optimised by the random methods whereas targeted randomisation of the binding site residues was used for optimising the binding properties. Trinucleotide mutagenesis allowed design of defined randomisation patterns for a synthetic antibody library. Improved clones were selected by phage display. Capture by a specific anti- DHPS antibody was exploited in the selection of improved phage display of DHPS. Efficient selection for stability was established by combining phage display selection with denaturation under reducing conditions. Broad-specific binding of a generic anti-sulfonamide antibody was improved by selection with one of the weakest binding sulfonamides. In addition, p9 based phage display was studied in affinity selection from the synthetic library. A TIM barrel protein DHPS was engineered for efficient phage display by combining cysteinereplacement with random mutagenesis. The resulting clone allows use of phage display in further engineering of DHPS and possibly use as an alternative-binding scaffold. An anti-TSH scFv fragment, cloned from a monoclonal antibody, was engineered for improved stability to better suite an immunoassay. The improved scFv tolerates 8 – 9 °C higher temperature than the parental scFv and should have sufficient stability to be used in an immunoanalyser with incubation at 36 °C. The anti-TSH scFv fragment was compared with the corresponding Fab fragment and the parental monoclonal antibody as a capturing reagent in a rapid 5-min immunoassay for TSH. The scFv fragment provided some benefits over the conventionally used Mab in anayte-binding capacity and assay kinetics. However, the recombinant Fab fragment, which had similar kinetics to the scFv, provided a more sensitive and reliable assay than the scFv. Another cloned scFv fragment was engineered in order to improve broad-specific recognition of sulfonamides. The improved antibody detects different sulfonamides at concentrations below the maximum residue limit (100 μg/kg in EU and USA) and allows simultaneous screening of different sulfonamide drug residues. Finally, a synthetic antibody library was constructed and new antibodies were generated and affinity matured entirely in vitro. These results illuminate the possibilities of phage display and antibody engineering for generation and optimisation of binding reagents in vitro and indicate the potential of recombinant antibodies as affinity reagents in immunoassays.
Resumo:
This study presents the information required to describe the machine and device resources in the turret punch press environment which are needed for the development of the analysing method for automated production. The description of product and device resources and their interconnectedness is the starting point for method comparison the development of expenses, production planning and the performance of optimisation. The manufacturing method cannot be optimized unless the variables and their interdependence are known. Sheet metal parts in particular may then become remarkably complex, and their automatic manufacture may be difficult or, with some automatic equipment, even impossible if not know manufacturing properties. This thesis consists of three main elements, which constitute the triangulation. In the first phase of triangulation, the manufacture occuring on a turret punch press is examined in order to find the factors that affect the efficiency of production. In the second phase of triangulation, the manufacturability of products on turret punch presses is examined through a set of laboratory tests. The third phase oftriangulation involves an examination of five industry parts. The main key findings of this study are: all possible efficiency in high automation level machining cannot be achieved unless the raw materials used in production and the dependencies of the machine and tools are well known. Machine-specific manufacturability factors for turret punch presses were not taken into account in the industrial case samples. On the grounds of the performed tests and industrial case samples, the designer of a sheet metal product can directly influence the machining time, material loss, energy consumption and the number of tools required on a turret punch press by making decisions in the way presented in the hypothesis of thisstudy. The sheet metal parts to be produced can be optimised to bemanufactured on a turret punch press when the material to be used and the kinds of machine and tool options available are known. This provides in-depth knowledge of the machine and tool properties machine and tool-specifically. None of the optimisation starting points described here is a separate entity; instead, they are all connected to each other.
Resumo:
Työn tavoitteena oli kehittää toimintoperusteista kustannuslaskentaa soveltamalla laskentamalli, jonka avulla on mahdollista tutkia postipalveluyrityksen tuotannollisen prosessin kokonaistuottavuuden kannalta optimaalista tapaa hyödyntää virtuaalista lajittelujärjestelmää. Kimputuksen osalta syntyi teoreettinen laskentamalli, mutta kuljetusyksiköinnin osalta pyrittiin muodostamaan todellista prosessia mahdollisimman hyvin noudattava malli, jonka tuloksia on helppo tutkia erilaisilla kustannus- ja lähetysparametreillä. Virtuaalisen lajittelujärjestelmän tuotannollisen hyödyntämisen ohella työssä oli tarkoitus toteuttaa alustavaa analyysia siitä, millä tapaa järjestelmän avulla voidaan tuottaa myös muuta lisäarvoa postipalvelutuotannolle. Analyysissa havaittiin alustavia hyödyntämismahdollisuuksia palvelutuotannon kuormitussuunnittelun, osoitelaatusidonnaisten toimintojen sekä postiin jätön ja prosessiin ohjauksen osalta. Ottamatta kantaa hyödyntämismahdollisuuksien toteutettavuuteen analyysin keskeinen tulos oli kuitenkin se, että järjestelmän hyödyntämisen osalta tutkimattomia teitä on vielä lukuisia.