837 resultados para Stabilité génomique
Resumo:
Lo scopo di questo elaborato di tesi è sintetizzare microcapsule di dimensioni non superiori ai 20 micron, contenenti un composto termocromico in modo da funzionare come indicatori di temperatura. Le capsule devono essere quindi in grado di variare la propria colorazione in funzione della temperatura del mezzo in cui sono disperse o dell’ambiente circostante, senza degradarsi. Il core è costituito da una miscela contenente un pigmento termocromico il cui colore varia da verde intenso se mantenuto a temperature ambiente, fino ad un verde pallido, quasi bianco, per temperature inferiori ai 10°C. Il core è stato quindi incapsulato in uno shell, costituito da una resina melammina-formaldeide (MF) mediante polimerizzazione in situ. Questo processo prevede la sintesi di un prepolimero MF che viene poi fatto reticolare in presenza di una emulsione del core in soluzione acquosa. Per prima cosa è stato ottimizzata la sintesi del prepolimero a partire da una soluzione acquosa di melammina e formaldeide. Vista la tossicità della formaldeide (H341-H350-H370) è stata studiata anche la possibilità di sostituire questo reagente con la sua forma polimerica (paraformaldeide) che a 45°C circa degrada rilasciando formaldeide in situ. In questo modo il processo risulta molto più sicuro anche in previsione di un suo possibile sviluppo industriale. In seguito è stato ottimizzato il processo di microincapsulazione in emulsione su vari tipi di core e studiando l’effetto di vari parametri (pH, temperatura, rapporto core/shell, tipo di emulsionante ecc.), sulle dimensioni e la stabilità delle microcapsule finali. Queste sono quindi state caratterizzate mediante spettrometria Infrarossa in trasformata di Fourier (FT-IR) e la loro stabilità termica è stata controllata tramite analisi TermoGravimetrica (TGA). Il processo di reticolazione (curing) della resina, invece, è stato studiato tramite Calorimetria Differenziale a Scansione (DSC). Le microcapsule sono inoltre state analizzate tramite Microscopio Elettronico (OM) e Microscopio Elettronico a Scansione (SEM).
Resumo:
Questo lavoro di tesi ha lo scopo di analizzare una frana appenninica riattivatasi a partire dal dicembre 2013 nel Comune di Grizzana Morandi (BO). L’operazione di studio della frana è iniziata partendo da una accurata campagna d’indagine eseguita in campo: per prima cosa è stata eseguita una dettagliata perlustrazione del corpo di frana e del territorio limitrofo, questa operazione comprende il rilevamento geologico di dettaglio ed il tracciamento (tramite dispositivo GPS) del profilo del deposito e della corona di distacco. Di fondamentale interesse sono state poi le informazioni ricavate dall’eseguimento di tre carotaggi sul corpo di frana, questi hanno permesso l’estrazione di carote utili a definire la stratigrafia verticale del luogo (fino ai 20 metri di profondità) e prelevare campioni di terreno per effettuare specifiche prove di laboratorio. Parte di queste prove sono state eseguite da un laboratorio di commissione, altre sono state eseguite nel laboratorio geotecnico dell’Università. I dati acquisiti tramite il monitoraggio, effettuato tramite l’istallazione di vari strumenti sul corpo di frana (piezometri, inclinometri ed estensimetri) sono risultati utili al fine di determinare la profondità della superficie di scorrimento, la velocità di movimento del deposito e la variazione del livello piezometrico. Le osservazioni effettuate sul campo e i dati provenienti dai sondaggi, dal monitoraggio e dalle prove di laboratorio sono stati elaborati e commentati, essi sono stati utilizzati per definire il modello geologico tecnico del territorio analizzato. Dalla definizione del modello geologico tecnico è stata effettuata la back analysis (la simulazione delle condizioni presenti sul versante al momento della rottura) tramite software specifico. L’operazione finale è stata la proposta (e la conseguente calibrazione) di diversi sistemi di messa in sicurezza del versante, utili a garantire nel tempo la stabilità del pendio analizzato.
Resumo:
Il presente lavoro tratta la stabilità del fronte di scavo, rinforzato con barre di consolidamento ed interessato da drenaggi in avanzamento, di gallerie sotto falda in rocce tenere o terreni. Tale studio è stato sviluppato dal progetto di Tesi attraverso l’analisi all’equilibrio limite che approssima il fronte di scavo con un rettangolo e considera un meccanismo di rottura composto da un cuneo, a tergo del fronte, caricato da un prisma. Il metodo descritto consente di tenere conto dell’effetto stabilizzante delle barre, mediante una distribuzione della pressione di supporto non uniforme. Nel caso di gallerie sotto falda, lo stesso metodo permette inoltre di considerare l’effetto destabilizzante dei gradienti idraulici. Sono state ricavate soluzioni analitiche per la valutazione della stabilità, ed implementate successivamente nel software di analisi numerica MATLAB. Dalle analisi condotte è emerso che il numero minimo di barre per garantire la stabilità del fronte di scavo è in molti casi elevato e risulta impossibile da porre in opera in terreni scarsamente coesivi o in gallerie sotto elevati battenti d’acqua. Per risolvere questa situazione si può prevedere l’inserimento di drenaggi in avanzamento, con lo scopo di diminuire i gradienti idraulici nei pressi del fronte della galleria. Il modello che descrive il nuovo andamento dei carichi idraulici, considerando la presenza di dreni, è stato realizzato con il software commerciale agli elementi finiti COMSOL. Una volta determinati gli andamenti dei carichi idraulici, sono stati condotti studi parametrici sull’effetto dei dreni combinato con gli elementi di rinforzo. Dopo tali analisi sono stati ricavati nomogrammi adimensionali che tengano conto della presenza contemporanea delle barre e dei dreni. Tali diagrammi costituiscono uno strumento utile e valido per la progettazione del rinforzo del fronte di scavo. Infine sono stati realizzati confronti fra casi di studio reali e risultati ottenuti dal modello.
Resumo:
Lo streaming è una tecnica per trasferire contenuti multimediali sulla rete globale, utilizzato per esempio da servizi come YouTube e Netflix; dopo una breve attesa, durante la quale un buffer di sicurezza viene riempito, l'utente può usufruire del contenuto richiesto. Cisco e Sandvine, che con cadenza regolare pubblicano bollettini sullo stato di Internet, affermano che lo streaming video ha, e avrà sempre di più, un grande impatto sulla rete globale. Il buon design delle applicazioni di streaming riveste quindi un ruolo importante, sia per la soddisfazione degli utenti che per la stabilità dell'infrastruttura. HTTP Adaptive Streaming indica una famiglia di implementazioni volta a offrire la migliore qualità video possibile (in termini di bit rate) in funzione della bontà della connessione Internet dell'utente finale: il riproduttore multimediale può cambiare in ogni momento il bit rate, scegliendolo in un insieme predefinito, adattandosi alle condizioni della rete. Per ricavare informazioni sullo stato della connettività, due famiglie di metodi sono possibili: misurare la velocità di scaricamento dei precedenti trasferimenti (approccio rate-based), oppure, come recentemente proposto da Netflix, utilizzare l'occupazione del buffer come dato principale (buffer-based). In questo lavoro analizziamo algoritmi di adattamento delle due famiglie, con l'obiettivo di confrontarli su metriche riguardanti la soddisfazione degli utenti, l'utilizzo della rete e la competizione su un collo di bottiglia. I risultati dei nostri test non definiscono un chiaro vincitore, riconoscendo comunque la bontà della nuova proposta, ma evidenziando al contrario che gli algoritmi buffer-based non sempre riescono ad allocare in modo imparziale le risorse di rete.
Resumo:
La tesi di laurea è stata svolta presso l’Università di Scienze Applicate di Rosenheim, in Germania; il progetto di ricerca si basa sulla tecnica di rinforzo conosciuta come “Soil Nailing”, che consiste nella costruzione di un’opera di sostegno nella realizzazione di pareti di scavo o nel consolidamento di versanti instabili. L’obiettivo principale dell’elaborato sarà quello di valutare la fattibilità dell’impiego di tubi fabbricati con legno di faggio, in sostituzione dei chiodi d’acciaio comunemente utilizzati; la scelta di questo tipo di legno è dettata dalla larga disponibilità presente in Germania. La sollecitazione principale su tali tubi sarà di trazione parallela alla fibratura, tramite test sperimentali è stato possibile valutare tale resistenza nelle diverse condizioni in cui si verrà a trovare il tubo dopo l’installazione nel terreno. A tal proposito è necessario specificare che, l’indagine per risalire all’influenza che le condizioni ambientali esercitano sull’elemento, verrà condotta su provini costituiti da un singolo strato di legno; in tal modo si può apprezzare l’influenza direttamente sull’elemento base e poi risalire al comportamento globale. I dati ottenuti dall’indagine sperimentale sono stati elaborati tramite la teoria di Weibull, largamente utilizzata in tecnologia dei materiali per quanto riguarda materiali fragili come il legno; tali distribuzioni hanno permesso la determinazione della resistenza caratteristica dei provini per ogni condizione ambientale d’interesse. Per quanto riguarda la valutazione della fattibilità dell’uso di tubi in legno in questa tecnica di consolidamento, è stato eseguito il dimensionamento del tubo, utilizzando i dati a disposizione ottenuti dall’indagine sperimentale eseguita; ed infine sono state eseguite le verifiche di stabilità dell’intervento.
Resumo:
Tema di questo lavoro sono i cedimenti indotti dallo scavo di gallerie superficiali in terreni coesivi sotto falda. In questi casi la velocità di avanzamento dello scavo v e la permeabilità del mezzo k influenzano molto l'evoluzione della consolidazione. Le ipotesi di risposta non drenata o drenata del mezzo saturo, comunemente adottate, sono valide solo per rapporto v/k estremamente alto o basso. Nei casi intermedi, analisi numeriche accoppiate che tengano conto del processo di consolidazione durante lo scavo sono indispensabili. Ciò nonostante, queste sono molto rare in letteratura viste le notevoli difficoltà teoriche e numeriche ad esse associate. Proprio per non incrementare ulteriormente tali difficoltà, si è deciso di adottare modelli costitutivi semplici quali: il modello elastico perfettamente plastico con criterio di resistenza alla Mohr Coulomb e il Modified Cam Clay. Dopo un' introduzione sulla risposta del terreno nell'intorno dello scavo al variare del modello costitutivo, è stato svolto uno studio parametrico del processo di consolidazione. Ci si è, successivamente, concentrati sulla capacità dei tre modelli costitutivi di predire l'andamento dei cedimenti, mediante confronto con le soluzioni empiriche proposte in letteratura. Infine, sono state effettuate una serie di simulazioni 3D accoppiate passo-passo con il programma agli elementi finiti Abaqus al variare della permeabilità del mezzo e del rivestimento installato, supposto infinitamente permeabile o impermeabile. È emerso che per v/k<100 o v/k>100000 non è necessario esaminare nel dettaglio la dipendenza dal tempo della risposta del suolo e si possono ottenere risultati affidabili assumendo condizioni drenate o non drenate, rispettivamente. Nei casi intermedi, invece, le condizioni sono da ritenersi transienti e l'unico modo per effettuare correttamente le analisi dei cedimenti e lo studio della stabilità del fronte è mediante analisi numeriche 3D idromeccaniche accoppiate.
Resumo:
Sviluppare e manutenere applicativi destinati a differenti piattaforme è un’opzione esclusiva di quelle entità capaci di sostenere costi molto alti per la realizzazione di queste applicazioni. Questo esclude gli sviluppatori indipendenti, che spesso realizzano prodotti in totale autonomia; le start-up, che hanno l’esigenza di sviluppare un’idea di business avendo a disposizione budget estremamente ridotti; le piccole aziende, alle quali viene così preclusa la possibilità di competere con player più importanti. Questo tipo di emergenze rende lo sviluppo cross-platform una soluzione interessante per la realizzazione delle applicazioni mobili, abbattendo i costi di sviluppo e permettendo di raggiungere più velocemente un pubblico più ampio. C'è quindi sempre maggiore interesse, da parte degli sviluppatori, per gli strumenti di sviluppo cross-platform. Per catturare l’attenzione degli sviluppatori è necessario che lo strumento sia dotato di buona stabilità, che offra un ambiente di sviluppo confortevole, una buona user experience, facilità di aggiornamento, tempi di sviluppo contenuti e possibilità di immissione delle applicazioni su diversi ecosistemi software. L’idea alla base di questa Tesi di laurea è valutare i pro e i contro di uno di questi framework cross-platform e compararlo con le tecnologie native. Il framework scelto è Ionic per via della sua popolarità tra gli sviluppatori e della ridotta bibliografia scientifica a riguardo. Molte ricerche scientifiche valutano le prestazioni di uno o più framework cross-platform rispetto ad una soluzione nativa, tuttavia è raro un confronto tra un framework e più soluzioni native. Per questo, oltre a valutare i pro e i contro del framework, verrà anche effettuata una comparazione tra gli applicativi nativi per Android e iOS e le controparti sviluppate attraverso Ionic, permettendo di identificare eventuali differenze di performance e aiutare gli sviluppatori nelle scelte tecnologiche.
Resumo:
L'obiettivo di questo lavoro è quello di analizzare la stabilità di uno spettro raggi X emesso da un tubo usurato per analisi cardiovascolari, in modo da verificare il suo comportamento. Successivamente questo tipo di analisi sarà effettuata su tubi CT. Per raggiungere questo scopo è stato assemblato un particolare set-up con un rivelatore al germanio criogenico in modo da avere la miglior risoluzione energetica possibile ed alcuni particolari collimatori così da ridurre il flusso fotonico per evitare effetti di pile-up. Il set-up è stato costruito in modo da avere il miglior allineamento possibile nel modo più veloce possibile, e con l'obiettivo di rendere l'intero sistema portabile. Il tubo usato è un SRM Philips tube per analisi cardiovascolari; questa scelta è stata fatta in modo da ridurre al minimo i fattori esterni (ottica elettromagnetica, emettitori) e concentrare l'attenzione solo sugli effetti, causati dalle varie esposizioni, sull'anodo (roughness e bending) e sul comportamento di essi durante il surriscaldamento e successivo raffreddamento del tubo. I risultati mostrano come durante un'esposizione alcuni fattori di usura del tubo possono influire in maniera sostanziale sullo spettro ottenuto e quindi alterare il risultato. Successivamente, nell'elaborato, mediante il software Philips di ricostruzione e simulazione dello spettro si è cercato di riprodurre, variando alcuni parametri, la differenza riscontrata sperimentalmente in modo da poter simulare l'instabilità e correggere i fattori che la causano. I risultati sono interessanti non solo per questo esperimento ma anche in ottica futura, per lo sviluppo di applicazioni come la spectral CT. Il passo successivo sarà quello di spostare l'attenzione su un CT tube e verificare se l'instabilità riscontrata in questo lavoro è persiste anche in una analisi più complessa come quella CT.
Resumo:
La misura della sezione d'urto di processi fisici prodotti negli urti fra protoni ad LHC è uno dei settori più importanti della ricerca in corso, sia per verificare le predizioni del Modello Standard, che per la ricerca di nuova fisica. La precisione necessaria per distinguere fenomeni standard e non, richiede un ottimo controllo delle incertezze sistematiche. Fra le sorgenti di errore sistematico, di particolare importanza sono quelle sulla misura della luminosità, che rappresenta il fattore di normalizzazione necessario per la misura di qualsiasi sezione d'urto. Ogni esperimento che si proponga misure di questo genere è quindi dotato di monitor di luminosità dedicati. In questa tesi sono presentate le tecniche di misura della luminosità ad ATLAS utilizzando i rivelatori dedicati e le problematiche incontrate nel corso della presa dati del 2012, sia per quanto riguarda la loro procedura di calibrazione assoluta, che per la loro stabilità in funzione del tempo e linearità di risposta, e vengono fornite le incertezze sistematiche dipendenti dal loro confronto. Per meglio comprendere tali risultati, si è studiato il canale di produzione del bosone Z nelle interazioni protone-protone, all'energia nel centro di massa s = √8 TeV mediante il suo decadimento in due muoni, utilizzando i dati acquisiti nel corso del 2012 Nel primo capitolo vengono definiti i concetti di luminosità istantanea ed integrata, sia dalla prospettiva del collider che le fornisce, che dal punto di vista delle analisi di fisica, quale quella svolta in questa tesi. Nel secondo capitolo viene descritto l'insieme dei rivelatori utilizzati da ATLAS per la misura della luminosità e i risultati ottenuti mediante il loro confronto in termini di incertezze sistematiche. Nel terzo capitolo viene infine presentata la misura della sezione d'urto di produzione del bosone Z e l'utilizzo di tale misura per il controllo della stabilità nel tempo e della linearità della misura sperimentale della luminosità.
Resumo:
The study investigated the predictive utility of interest profile differentiation, coherence, elevation, congruence, and vocational identity commitment and career maturity (career planning and exploration) on the 10-month interest stability of 292 Swiss eighth-grade students: profile, rank, and level stabilities were assessed. Controlling for socio-demographic and vocational interest type variables, measures of differentiated and coherent vocational interests were significant predictors of profile stability. Interest elevation predicted more rank and level stability. The career development variables explained only a non-significant additional amount of variance in the different stability measures.
Resumo:
Le relief accidenté, le climat agressif favorisé par l’Alizé, ainsi que l’étroite dépendance de la population de l’exploitation forestière et de l’exploitation agricole sans dispositifs de protection antiérosifs, sont les contextes qui permettent de dire que la région de Mandraka est sujette au problème d’érosion. L’étude a pour objectif de déterminer les relations entre les caractéristiques du sol, son mode d’occupation, les précipitations ainsi que l’érosion dans la région de Mandraka et ce en vue d’un aménagement rationnel. Des dispositifs pour la mesure de pertes en terre et de ruissellement ont été matérialisés sur des parcelles d’expérimentation. A cet effet, le choix de ces parcelles a porté sur le mode d’occupation du sol (sous terrains aménagés, sous « tavy », sous « savoka », et sous forêt naturelle), sur la similitude des pentes et sur leur localisation de manière à ce qu’elles soient situées sur les mi-versants. Les résultats ont montré que le sol dans cette région contient un taux de matière organique satisfaisant à élevé (2,41 à 3,74% de MO), lui permettant une bonne stabilité structurale (Is = 0,85 et K = 0,08). Les pertes en terre (0,13 à 20,93t/ha/an) et les ruissellements (0,3 à 5%) obtenus indiquent que l’érosion est faible à accélérée suivant le mode d’occupation du sol. En deux ans d’aménagement, les terrasses se sont stabilisées et les racines de Vetiveria zizanoides peuvent remplacer les fascines initialement installées pour tenir les talus. Toutefois, l’exposition du sol à la battance de la pluie et la mauvaise infiltration d’eau de ruissellement dans le sol accélèrent le phénomène d’érosion. Par ailleurs, il y a l’efficacité de la SCV sans brûlis bien qu’il s’agit de la première année d’expérience. Dans ces conditions, un plan d’aménagement simplifié a été proposé en vue (i) de protéger le sol contre la battance de la pluie, (ii) de réduire les transports solides par l’érosion et (iii) d’améliorer l’infiltration d’eau du sol.
Resumo:
Suite à la crise financière de 2008 les pays du G20 se sont interrogés sur la transparence des marchés, la stabilité du système et une façon de réguler les risques posés par le nouvel environnement économique. Les produits dérivés de gré à gré ont été identifiés et des engagements ont été pris en faveur de nouvelles régulations des dérivés de gré à gré et la gestion des risques sous-jacents. Les régulateurs ont donc adopté chacun à leur tour un cadre législatif régulant les dérivés de gré à gré tout en déployant un effort international d'harmonisation et de reconnaissance des contreparties assujetties à des régimes équivalents. Les autorités canadiennes en valeurs mobilières ont publié des projets de règlements. Nous nous interrogerons sur ce nouveau cadre réglementaire des dérivés de gré à gré élaboré par les autorités canadiennes en valeurs mobilières, prenant en considération les spécificités canadiennes et les acteurs actifs sur leur territoire. Notre étude traite de ces projets de règlements et de la difficulté d'encadrer les marchés des dérivés de gré à gré qui par définition ne comportent pas de plateformes de négociation ou de lieu géographique et de frontières mais se caractérisent surtout par le lien contractuel entre les parties et l'identification de ces parties. L'élaboration d'un nouveau cadre pour les dérivés de gré à gré qui régule les transactions transfrontières semble très délicat à traiter et les possibles conflits et chevauchements de lois seront inévitables. Confrontés à des définitions divergentes de contreparties locales, les parties à une opération seront condamnées à un risque de qualification en vertu des règlements nationaux sur les dérivés de gré à gré. Une concertation pourrait être renforcée et la détermination de l'autorité compétente ainsi que les concepts de contreparties locales, succursales ou filiales pourraient être harmonisés.
Resumo:
L'activité électrique du coeur est initiée par la génération spontanée de potentiels d'action venant des cellules pacemaker du noeud sinusal (SN). Toute dysfonction au niveau de cette région entraîne une instabilité électrique du coeur. La majorité des patients souffrant d'un noeud sinusal déficient nécessitent l'implantation chirurgicale d'un pacemaker électronique; cependant, les limitations de cette approche incitent à la recherche d'une alternative thérapeutique. La base moléculaire des courants ioniques jouant un rôle crucial dans l'activité du noeud sinusal sont de plus en plus connues. Une composante importante de l'activité des cellules pacemakers semble être le canal HCN, responsable du courant pacemaker If. Le facteur T-box 3 (Tbx3), un facteur de transcription conservé durant le processus de l'évolution, est nécessaire au développement du système de conduction cardiaque. De précédentes études ont démontré que dans différentes lignées cellulaires le Phorbol 12-myristate 13-acetate (PMA) active l'expression du gène codant Tbx3 via des réactions en cascade partant de la protéine kinase C (PKC). L'objectif principal de cette étude est de tester si le PMA peut augmenter la fréquence et la synchronisation de l'activité spontanée du pacemaker biologique en culture. Plus précisément, nous avons étudié les effets de l'exposition chronique au PMA sur l'expression du facteur de transcription Tbx3, sur HCN4 et l'activité spontanée chez des monocouches de culture de myocytes ventriculaires de rats néonataux (MVRN). Nos résultats démontrent que le PMA augmente significativement le facteur transcription de Tbx3 et l'expression ARNm de HCN4, favorisant ainsi l'augmentation du rythme et de la stabilité de l'activité autonome. De plus, une diminution significative de la vitesse de conduction a été relevée et est attribuée à la diminution du couplage intercellulaire. La diminution de la vitesse de conduction pourrait expliquer l'effet négatif du PMA sur la synchronisation de l'activité autonome du pacemaker biologique. Ces résultats ont été confirmés par un modèle mathématique multicellulaire suggérant que des fréquences et résistances intercellulaires plus élevée pourraient induire une activité plus stable et moins synchrone. Cette étude amène de nouvelles connaissances très importantes destinées à la production d'un pacemaker biologique efficient et robuste.
Resumo:
Le traumatisme craniocérébral léger (TCCL) a des effets complexes sur plusieurs fonctions cérébrales, dont l’évaluation et le suivi peuvent être difficiles. Les problèmes visuels et les troubles de l’équilibre font partie des plaintes fréquemment rencontrées après un TCCL. En outre, ces problèmes peuvent continuer à affecter les personnes ayant eu un TCCL longtemps après la phase aiguë du traumatisme. Cependant, les évaluations cliniques conventionnelles de la vision et de l’équilibre ne permettent pas, la plupart du temps, d’objectiver ces symptômes, surtout lorsqu’ils s’installent durablement. De plus, il n’existe pas, à notre connaissance, d’étude longitudinale ayant étudié les déficits visuels perceptifs, en tant que tels, ni les troubles de l’équilibre secondaires à un TCCL, chez l’adulte. L’objectif de ce projet était donc de déterminer la nature et la durée des effets d’un tel traumatisme sur la perception visuelle et sur la stabilité posturale, en évaluant des adultes TCCL et contrôles sur une période d’un an. Les mêmes sujets, exactement, ont participé aux deux expériences, qui ont été menées les mêmes jours pour chacun des sujets. L’impact du TCCL sur la perception visuelle de réseaux sinusoïdaux définis par des attributs de premier et de second ordre a d’abord été étudié. Quinze adultes diagnostiqués TCCL ont été évalués 15 jours, 3 mois et 12 mois après leur traumatisme. Quinze adultes contrôles appariés ont été évalués à des périodes identiques. Des temps de réaction (TR) de détection de clignotement et de discrimination de direction de mouvement ont été mesurés. Les niveaux de contraste des stimuli de premier et de second ordre ont été ajustés pour qu’ils aient une visibilité comparable, et les moyennes, médianes, écarts-types (ET) et écarts interquartiles (EIQ) des TR correspondant aux bonnes réponses ont été calculés. Le niveau de symptômes a également été évalué pour le comparer aux données de TR. De façon générale, les TR des TCCL étaient plus longs et plus variables (plus grands ET et EIQ) que ceux des contrôles. De plus, les TR des TCCL étaient plus courts pour les stimuli de premier ordre que pour ceux de second ordre, et plus variables pour les stimuli de premier ordre que pour ceux de second ordre, dans la condition de discrimination de mouvement. Ces observations se sont répétées au cours des trois sessions. Le niveau de symptômes des TCCL était supérieur à celui des participants contrôles, et malgré une amélioration, cet écart est resté significatif sur la période d’un an qui a suivi le traumatisme. La seconde expérience, elle, était destinée à évaluer l’impact du TCCL sur le contrôle postural. Pour cela, nous avons mesuré l’amplitude d’oscillation posturale dans l’axe antéropostérieur et l’instabilité posturale (au moyen de la vitesse quadratique moyenne (VQM) des oscillations posturales) en position debout, les pieds joints, sur une surface ferme, dans cinq conditions différentes : les yeux fermés, et dans un tunnel virtuel tridimensionnel soit statique, soit oscillant de façon sinusoïdale dans la direction antéropostérieure à trois vitesses différentes. Des mesures d’équilibre dérivées de tests cliniques, le Bruininks-Oseretsky Test of Motor Proficiency 2nd edition (BOT-2) et le Balance Error Scoring System (BESS) ont également été utilisées. Les participants diagnostiqués TCCL présentaient une plus grande instabilité posturale (une plus grande VQM des oscillations posturales) que les participants contrôles 2 semaines et 3 mois après le traumatisme, toutes conditions confondues. Ces troubles de l’équilibre secondaires au TCCL n’étaient plus présents un an après le traumatisme. Ces résultats suggèrent également que les déficits affectant les processus d’intégration visuelle mis en évidence dans la première expérience ont pu contribuer aux troubles de l’équilibre secondaires au TCCL. L’amplitude d’oscillation posturale dans l’axe antéropostérieur de même que les mesures dérivées des tests cliniques d’évaluation de l’équilibre (BOT-2 et BESS) ne se sont pas révélées être des mesures sensibles pour quantifier le déficit postural chez les sujets TCCL. L’association des mesures de TR à la perception des propriétés spécifiques des stimuli s’est révélée être à la fois une méthode de mesure particulièrement sensible aux anomalies visuomotrices secondaires à un TCCL, et un outil précis d’investigation des mécanismes sous-jacents à ces anomalies qui surviennent lorsque le cerveau est exposé à un traumatisme léger. De la même façon, les mesures d’instabilité posturale se sont révélées suffisamment sensibles pour permettre de mesurer les troubles de l’équilibre secondaires à un TCCL. Ainsi, le développement de tests de dépistage basés sur ces résultats et destinés à l’évaluation du TCCL dès ses premières étapes apparaît particulièrement intéressant. Il semble également primordial d’examiner les relations entre de tels déficits et la réalisation d’activités de la vie quotidienne, telles que les activités scolaires, professionnelles ou sportives, pour déterminer les impacts fonctionnels que peuvent avoir ces troubles des fonctions visuomotrice et du contrôle de l’équilibre.
Resumo:
La déficience intellectuelle est la cause d’handicap la plus fréquente chez l’enfant. De nombreuses évidences convergent vers l’idée selon laquelle des altérations dans les gènes synaptiques puissent expliquer une fraction significative des affections neurodéveloppementales telles que la déficience intellectuelle ou encore l’autisme. Jusqu’à récemment, la majorité des mutations associées à la déficience intellectuelle a été liée au chromosome X ou à la transmission autosomique récessive. D’un autre côté, plusieurs études récentes suggèrent que des mutations de novo dans des gènes à transmission autosomique dominante, requis dans les processus de la plasticité synaptique peuvent être à la source d’une importante fraction des cas de déficience intellectuelle non syndromique. Par des techniques permettant la capture de l’exome et le séquençage de l’ADN génomique, notre laboratoire a précédemment reporté les premières mutations pathogéniques dans le gène à transmission autosomique dominante SYNGAP1. Ces dernières ont été associées à des troubles comportementaux tels que la déficience intellectuelle, l’inattention, des problèmes d’humeur, d’impulsivité et d’agressions physiques. D’autres patients sont diagnostiqués avec des troubles autistiques et/ou des formes particulières d’épilepsie généralisée. Chez la souris, le knock-out constitutif de Syngap1 (souris Syngap1+/-) résulte en des déficits comme l’hyperactivité locomotrice, une réduction du comportement associée à l’anxiété, une augmentation du réflexe de sursaut, une propension à l’isolation, des problèmes dans le conditionnement à la peur, des troubles dans les mémoires de travail, de référence et social. Ainsi, la souris Syngap1+/- représente un modèle approprié pour l’étude des effets délétères causés par l’haploinsuffisance de SYNGAP1 sur le développement de circuits neuronaux. D’autre part, il est de première importance de statuer si les mutations humaines aboutissent à l’haploinsuffisance de la protéine. SYNGAP1 encode pour une protéine à activité GTPase pour Ras. Son haploinsuffisance entraîne l’augmentation des niveaux d’activité de Ras, de phosphorylation de ERK, cause une morphogenèse anormale des épines dendritiques et un excès dans la concentration des récepteurs AMPA à la membrane postsynaptique des neurones excitateurs. Plusieurs études suggèrent que l’augmentation précoce de l’insertion des récepteurs AMPA au sein des synapses glutamatergiques contribue à certains phénotypes observés chez la souris Syngap1+/-. En revanche, les conséquences de l’haploinsuffisance de SYNGAP1 sur les circuits neuronaux GABAergiques restent inconnues. Les enjeux de mon projet de PhD sont: 1) d’identifier l’impact de mutations humaines dans la fonction de SYNGAP1; 2) de déterminer si SYNGAP1 contribue au développement et à la fonction des circuits GABAergiques; 3) de révéler comment l’haploinsuffisance de Syngap1 restreinte aux circuits GABAergiques affecte le comportement et la cognition. Nous avons publié les premières mutations humaines de type faux-sens dans le gène SYNGAP1 (c.1084T>C [p.W362R]; c.1685C>T [p.P562L]) ainsi que deux nouvelles mutations tronquantes (c.2212_2213del [p.S738X]; c.283dupC [p.H95PfsX5]). Ces dernières sont toutes de novo à l’exception de c.283dupC, héritée d’un père mosaïque pour la même mutation. Dans cette étude, nous avons confirmé que les patients pourvus de mutations dans SYNGAP1 présentent, entre autre, des phénotypes associés à des troubles comportementaux relatifs à la déficience intellectuelle. En culture organotypique, la transfection biolistique de l’ADNc de Syngap1 wild-type dans des cellules pyramidales corticales réduit significativement les niveaux de pERK, en fonction de l’activité neuronale. Au contraire les constructions plasmidiques exprimant les mutations W362R, P562L, ou celle précédemment répertoriée R579X, n’engendre aucun effet significatif sur les niveaux de pERK. Ces résultats suggèrent que ces mutations faux-sens et tronquante résultent en la perte de la fonction de SYNGAP1 ayant fort probablement pour conséquences d’affecter la régulation du développement cérébral. Plusieurs études publiées suggèrent que les déficits cognitifs associés à l’haploinsuffisance de SYNGAP1 peuvent émerger d’altérations dans le développement des neurones excitateurs glutamatergiques. Toutefois, si, et auquel cas, de quelle manière ces mutations affectent le développement des interneurones GABAergiques résultant en un déséquilibre entre l’excitation et l’inhibition et aux déficits cognitifs restent sujet de controverses. Par conséquent, nous avons examiné la contribution de Syngap1 dans le développement des circuits GABAergiques. A cette fin, nous avons généré une souris mutante knockout conditionnelle dans laquelle un allèle de Syngap1 est spécifiquement excisé dans les interneurones GABAergiques issus de l’éminence ganglionnaire médiale (souris Tg(Nkx2.1-Cre);Syngap1flox/+). En culture organotypique, nous avons démontré que la réduction de Syngap1 restreinte aux interneurones inhibiteurs résulte en des altérations au niveau de leur arborisation axonale et dans leur densité synaptique. De plus, réalisés sur des coupes de cerveau de souris Tg(Nkx2.1-Cre);Syngap1flox/+, les enregistrements des courants inhibiteurs postsynaptiques miniatures (mIPSC) ou encore de ceux évoqués au moyen de l’optogénétique (oIPSC) dévoilent une réduction significative de la neurotransmission inhibitrice corticale. Enfin, nous avons comparé les performances de souris jeunes adultes Syngap1+/-, Tg(Nkx2.1-Cre);Syngap1flox/+ à celles de leurs congénères contrôles dans une batterie de tests comportementaux. À l’inverse des souris Syngap1+/-, les souris Tg(Nkx2.1-Cre);Syngap1flox/+ ne présentent pas d’hyperactivité locomotrice, ni de comportement associé à l’anxiété. Cependant, elles démontrent des déficits similaires dans la mémoire de travail et de reconnaissance sociale, suggérant que l’haploinsuffisance de Syngap1 restreinte aux interneurones GABAergiques dérivés de l’éminence ganglionnaire médiale récapitule en partie certains des phénotypes cognitifs observés chez la souris Syngap1+/-. Mes travaux de PhD établissent pour la première fois que les mutations humaines dans le gène SYNGAP1 associés à la déficience intellectuelle causent la perte de fonction de la protéine. Mes études dévoilent, également pour la première fois, l’influence significative de ce gène dans la régulation du développement et de la fonction des interneurones. D’admettre l’atteinte des cellules GABAergiques illustre plus réalistement la complexité de la déficience intellectuelle non syndromique causée par l’haploinsuffisance de SYNGAP1. Ainsi, seule une compréhension raffinée de cette condition neurodéveloppementale pourra mener à une approche thérapeutique adéquate.