451 resultados para validité


Relevância:

10.00% 10.00%

Publicador:

Resumo:

Nella regione del TIR, le transizioni spettrali vibro-rotazionali della CO2 sono sfruttate per ricavare la distribuzione di P e T negli esperimenti spaziali. Oltre all’importanza di questi due parametri, la loro conoscenza è necessaria per ricavare la distribuzione di qualsiasi molecola dalle sue transizioni spettrali. Per ricavare P e T si assume di conoscere il VMR della CO2. L’accuratezza con cui si ricava la distribuzione della CO2 insieme a quelle di P e T non è sufficiente. Inoltre, il VMR della CO2 aumenta nel corso degli anni. Per questo, in questa tesi si propone una nuova strategia per misurare la CO2 usando uno strumento satellitare a scansione del lembo. L’idea è quella di sfruttare le transizioni rotazionali pure dell’O2 nella regione del FIR per ricavare P e T. Poiché queste transizioni traggono origine da un momento di dipolo magnetico la loro forza di riga è molto bassa. Tuttavia, grazie alla grande abbondanza dell’O2 in atmosfera e alla lunghezza dei cammini ottici, queste transizioni sono tra le più intense nello spettro atmosferico del FIR. Il satellite considerato è posto su un’orbita quasi polare e lo strumento osserva l’emissione del lembo atmosferico in direzione opposta a quella di volo. Lo strumento ipotizzato è uno spettrometro a trasformata di Fourier con due porte di output ospitanti un detector per la regione del FIR e uno per quella del TIR. La risoluzione spettrale è di 0.004 cm-1. Mentre il NESR è di 5 nW. Il campionamento geometrico verticale dell’atmosfera è di 3 Km mentre quello orizzontale è di circa 100 Km. Usando la teoria dell’optimal estimation sono stati selezionati due set di intervalli spettrali da analizzare, uno per la regione del FIR e l’altro per la regione del TIR. Con queste ipotesi sono stati effettuati test di retrieval su osservati simulati per valutare le performance del sistema ipotizzato. Si è dimostrato che le transizioni della CO2 nella regione del TIR non sono sufficienti per ricavare P e T insieme al proprio VMR con precisione soddisfacente e che l’uso dell’informazione derivante dal FIR fa aumentare la qualità del retrieval. Le performance dell’esperimento permettono di ricavare il VMR della CO2 con una precisione di circa 1 ppm tra 10 Km e 60 Km con una risoluzione verticale di 3 Km e una orizzontale di circa 2.5° di latitudine. Si è quindi dimostrato la validità della strategia proposta in questo studio.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

L'obiettivo della seguente trattazione è quello di illustrare i principali metodi di determinazione delle resistenze al moto per materiali rotabili. Verranno quindi proposti e discussi una serie di diversi approcci al problema corredati da esempi e commenti finalizzati a chiarire, oltre al funzionamento degli strumenti, anche l'ambito di validità di questi, evidenziando eventuali differenze nei risultati e interpretandole razionalmente. Nella prima parte verranno introdotti ed analizzati i singoli contributi che, durante l'avanzamento di un generico veicolo ferroviario, generano resistenze al moto: partendo dalle resistenze di tipo meccanico dovute alle caratteristiche del rotabile e alle sue proprietà meccaniche fino a quelle di tipo aerodinamico che, come si vedrà in seguito, dipendono fortemente non solo dalla tipologia di veicolo ma anche dalle condizioni ambientali di esercizio, ma soprattutto dalla velocità di percorrenza. Si passa quindi ad illustrare i principali metodi di determinazione empirici adottati dalle compagnie ferroviarie e dai produttori di materiale rotabile in vari paesi. Nell'ultima parte di questa trattazione si propone una serie di considerazioni finalizzate ad analizzare eventuali soluzioni pratiche per migliorare l'efficienza e la performance dei materiali rotabili sulla base delle informazioni ottenute dallo studio delle varie esperienze analizzate nei capitoli.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

La tomografia ad emissione di positroni (PET) è una tecnica di imaging di medicina nucleare, utilizzata oggi diffusamente in ambito clinico. Essa fornisce immagini e informazioni fisiologiche dei processi funzionali all’interno del corpo. La PET si basa sulla rilevazione di fotoni di annichilazione prodotti in seguito al decadimento di un radio farmaco iniettato nel paziente. I rilevatori convenzionali sono costituiti da un materiale scintillatore accoppiato ad un fotomoltiplicatore, solitamente un PMT o SiPM. Uno sviluppo della PET è la Time of Flight PET (ToF PET), attualmente già in commercio ed utilizzata con prestazioni eccellenti. Un’ulteriore modifica, che potenzialmente permetterebbe di ottenere una migliore risoluzione temporale, è la ToF PET basata sulla rilevazione di fotoni tramite radiazione Cherenkov, invece che luce di scintillazione. Questo lavoro di tesi è incentrato dunque su questa tecnica specifica. Si illustra una rassegna di pubblicazioni scientifiche degli ultimi anni riguardo ad essa con i relativi risultati ottenuti e i possibili sviluppi futuri. Infine si propone un approfondimento personale, nel quale, tramite un programma scritto in ROOT, si è realizzata una geometria di un sistema di rilevazione ToF PET. Esso prevede la rilevazione dei fotoni di annichilazione tramite un radiatore Cherenkov accoppiato ad un SiPM. In futuro questo potrà essere implementato e utilizzato per simulare il processo fisico della PET, verificando la validità e le prestazioni del sistema così sviluppato.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

L'indagine ha riguardato il profilo del vento nei primi 30 metri dello strato limite atmosferico stabile nell'ambito della teoria di similarità locale. Ad oggi, diversi esperimenti hanno confermato la validità della teoria per strati-limite su terreni livellati e superfici omogenee. Tali condizioni ideali sono però infrequenti nella realtà ed è perciò importante capire quali siano i limiti della similarità locale per strati-limite su terreni complessi e superfici disomogenee. Entrambe le condizioni sono presenti a Ny-Alesund (Svalbard, Norvegia) dove il Consiglio Nazionale delle Ricerche (CNR), nel 2009, ha installato una torre di 30 m, la Amudsen-Nobile Climate Change Tower (CCT), per lo studio dello strato-limite artico. Il lavoro di tesi ha riguardato misure di vento e turbolenza acquisite sulla CCT da maggio 2012 a maggio 2014. Il confronto tra le velocità del vento misurate dagli anemometri installati sulla CCT, ha rivelato criticità nel dato sonico manifestatesi con sovrastime sistematiche e maggiore erraticità rispetto alle misure provenienti dagli anemometri a elica. Un test condotto fra diversi metodi per il calcolo dei gradienti verticali della velocità del vento ha rivelato scarsa sensibilità dei risultati ottenuti al particolare metodo utilizzato. Lo studio ha riguardato i gradienti verticali adimensionali della velocità del vento nei primi 30-m dello strato limite stabile. Deviazioni significative tra i tra le osservazioni e i valori predetti dalla similarità locale sono state osservate in particolare per i livelli più distanti dal suolo e per valori crescenti del parametro di stabilità z/L (L, lunghezza di Obukhov locale). In particolare, si sono osservati gradienti adimensionali inferiori a quelli predetti dalle più usate relazioni di flusso-gradiente. Tali deviazioni, presenti perlopiù per z/L>0.1, sono state associate ad un effetto di accentuazione della turbolenza da parte delle irregolarità del terreno. Per condizioni meno stabili, z/L<0.1, scarti positivi tra i gradienti osservati e quelli attesi sono stati attribuiti alla formazione di strati limite interni in condizioni di vento dal mare verso la costa. Sono stati proposti diversi metodi per la stima dell'effetto della self-correlazione nella derivazione delle relazioni di flusso-gradiente, dovuta alla condivisione della variabile u*. La formula per il coefficiente lineare di self correlazione e le sue distribuzioni di probabilità empiriche sono state derivate e hanno permesso di stimare il livello di self-correlazione presente nel dataset considerato.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

L'argomento di questa tesi è l'architettura di rete Delay-/Disruption-Tolerant Networking (DTN), progettata per operare nelle reti “challenged”, dove la suite di protocolli TCP/IP risulta inefficace a causa di lunghi ritardi di propagazione del segnale, interruzioni e disturbi di canale, ecc. Esempi di reti “challenged” variano dalle reti interplanetarie alle Mobile Ad-Hoc Networks (MANETs). Le principali implementazioni dell'architettura DTN sono DTN2, implementazione di riferimento, e ION, sviluppata da NASA JPL per applicazioni spaziali. Una grande differenza tra reti spaziali e terrestri è che nello spazio i movimenti dei nodi sono deterministici, mentre non lo sono per i nodi mobili terrestri, i quali generalmente non conoscono la topologia della rete. Questo ha portato allo sviluppo di diversi algoritmi di routing: deterministici per le reti spaziali e opportunistici per quelle terrestri. NASA JPL ha recentemente deciso di estendere l'ambito di applicazione di ION per supportare anche scenari non deterministici. Durante la tesi, svolta presso NASA JPL, mi sono occupato di argomenti diversi, tutti finalizzati a questo obiettivo. Inizialmente ho testato la nuova implementazione dell'algoritmo IP Neighbor Discovery (IPND) di ION, corretti i bug e prodotta la documentazione ufficiale. Quindi ho contribuito ad integrare il Contact Graph Routing (CGR) di ION nel simulatore DTN “ONE” utilizzando la Java Native Interface (JNI) come ponte tra il codice Java di ONE e il codice C di ION. In particolare ho adattato tutte le librerie di ION necessarie per far funzionare CGR all'interno dell'ambiente di ONE. Infine, dopo aver analizzato un dataset di tracce reali di nodi mobili, ho contribuito a progettare e a sviluppare OCGR, estensione opportunistica del CGR, quindi ne ho curato l'integrazione in ONE. I risultati preliminari sembrano confermare la validità di OCGR che, una volta messo a punto, può diventare un valido concorrente ai più rinomati algoritmi opportunistici.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Poiché nell’ultimo decennio i dispositivi mobile assumono un ruolo sempre più determinante nello svolgimento della vita stessa, nel corso del tempo si sono ricercate e sviluppate app per facilitare le più svariate operazioni quotidiane. Visto la vastità del mercato degli smartphone, nel tempo sono stati sviluppati vari sistemi operativi in grado di governare queste piattaforme. Per una azienda, tuttavia, gestire i costi di implementazione di una stessa app in ambienti differenti risulta più oneroso che gestire i costi di una sola in grado di operare nei diversi sistemi operativi. Quest’ultimo tipo di app viene comunemente denominato app multipiattaforma. Un modo per implementare questo genere di applicazioni vede come strumento di utilizzo Visual Studio, noto IDE. Nel caso specifico Visual Studio ha integrato il progetto Apache Cordova per le creazione di applicativi multipiattaforma. In questo elaborato di tesi tramite i due strumenti appena introdotti si sono sviluppate due differenti app, al fine di valutarne le performance in termini di tempo. La prima app propone la risoluzione di un noto problema di calcolo combinatorio conosciuto con il nome di Knapsack, ovvero il problema dello zaino. La seconda cerca invece di digitalizzare una semplice espressione matematica contenuta in un’immagine e di fornirne quindi il risultato. Dai dati ottenuti si possono operare confronti per determinare la validità dello strumento di sviluppo, mettendo in luce anche possibili evoluzioni di queste due app.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

La validità della legge di gravitazione di Newton, o ISL (dall'inglese inverse square law) è stata ampiamente dimostrata dalle osservazioni astronomiche nel sistema solare (raggio d'azione di circa 10^{7}- 10^{9} km). Gli esperimenti effettuati su scale geologiche (raggio d'azione tra cm e km), eredi dell'esperimento di Cavendish, sono stati capaci di fornire un valore sperimentale della costante G della ISL affetto però da un'incertezza consistente (la precisione con cui si conosce G è dell'ordine di grandezza di 10^{-4}). L'interesse nella determinazione di un valore più preciso della costante G è aumentato negli ultimi decenni, supportato dalla necessità di mettere alla prova nuove teorie di gravitazione non Newtoniane emergenti, e da un avanzamento tecnologico negli apparati di misura, che sono ora in grado di rilevare l'interazione gravitazionale anche su distanze molto brevi (al di sotto del mm). In questo elaborato vengono brevemente presentate alcune delle teorie avanzate negli ultimi decenni che hanno reso urgente la riduzione dell'incertezza sulla misura di G, elencando successivamente alcuni importanti esperimenti condotti per la determinazione di un valore di G ripercorrendone brevemente i metodi sperimentali seguiti. Tra gli esperimenti presentati, sono infine analizzati nel dettaglio due esperimenti significativi: La misura della costante gravitazionale effettuata a corto raggio con l'utilizzo di atomi freddi nell'ambito dell'esperimento MAGIA a Firenze, e l'osservazione della presunta variazione di G su scale temporali relativamente lunghe, effettuata mediante l'osservazione (della durata di 21 anni)della pulsar binaria PSR J1713+0747.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

The core issues comparative territorial politics addresses are how and why territory is used to delimit, maintain, or create political power; and with what kind of consequences for efficiency (output) and legitimacy (input). The aim of this article is to integrate various research strands into the comparative study of territorial politics, with federal studies at its core. As an example of a conceptual payoff, ‘political territoriality’ refers the observer to three dimensions of the strategic use of areal boundaries for political power. By focusing on territory as a key variable of political systems, the actors, processes and institutions are first analytically separated and continuously measured, enhancing internal validity, and then theoretically integrated, which allows more valid external inferences than classic, legal-institutionalist federal studies. After discussing the boundaries and substance of comparative territorial politics as a federal discipline, political territoriality is developed towards an analytical framework applicable to politics at any governmental level. The claims are modest: political territoriality does not serve so much as an explanatory concept as rather an ‘attention-directing device’ for federal studies.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

L’objectif principal de cet article est de montrer que certains emplois des connecteurs pragmatiques nécessitent la construction d’une métareprésentation. Nous verrons d’abord que les capacités humaines de métareprésentation sont diverses et montrerons ensuite que cette diversité se retrouve dans les différents types d’emplois des connecteurs. Nous proposerons une esquisse de modèle qui rend compte de cette propriété des connecteurs dans le cadre de la théorie de la pertinence. Enfin, nous testerons la validité de notre modèle en présentant des données dans le domaine de l’acquisition du langage, plus particulièrement sur la production de parce que chez des enfants entre deux et quatre ans.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

La limitazione del brevetto in corso di causa è uno dei temi più caldi ed attuali del contenzioso brevettuale, a seguito dell’introduzione nel Codice della Proprietà Industriale, con la riforma dell’agosto 2010, del 3° comma dell’art. 79, a mente del quale “In un giudizio di nullità, il titolare ha facoltà di sottoporre al giudice, in ogni stato e grado del giudizio, una riformulazione delle rivendicazioni che rimanga entro i limiti del contenuto della domanda di brevetto quale inizialmente depositata e non estenda la protezione conferita dal brevetto concesso”. L’applicazione della disposizione in discorso genera una serie di interrogativi, ai quali giurisprudenza e dottrina cercano di rispondere, e determina, e sempre più determinerà, un cambiamento radicale dello svolgimento del contenzioso brevettuale, con la possibilità di un “riassetto” della privativa, anche per successivi tentativi, nella quale anche il C.T.U. è spesso (e non senza contestazioni, a questo riguardo) parte attiva, non essendo infrequente che questo offra indicazioni circa la sussistenza di un margine di validità del titolo . L’elaborato tenta, quindi, di approfondire le problematiche di natura sostanziale e procedurale che l’articolo 79, comma 3, C.P.I. solleva, ripercorrendo con l’occasione le possibili facoltà di intervento sul brevetto, sia allo stato di domanda, che a seguito di concessione, che l’ordinamento mette a disposizione dell’inventore per perfezionare la propria privativa.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Background e scopi dello studio. Il carcinoma renale rappresenta circa il 3% delle neoplasie e la sua incidenza è in aumento nel mondo. Il principale approccio terapeutico alla malattia in stadio precoce è rappresentato dalla chirurgia (nefrectomia parziale o radicale), sebbene circa il 30-40% dei pazienti vada incontro a recidiva di malattia dopo tale trattamento. La probabilità di recidivare può essere stimata per mezzo di alcuni noti modelli prognostici sviluppati integrando sia parametri clinici che anatomo-patologici. Il limite principale all’impiego nella pratica clinica di questi modelli è legata alla loro complessità di calcolo che li rende di difficile fruizione. Inoltre la stratificazione prognostica dei pazienti in questo ambito ha un ruolo rilevante nella pianificazione ed interpretazione dei risultati degli studi di terapia adiuvante dopo il trattamento chirurgico del carcinoma renale in stadio iniziale. Da un' analisi non pre-pianificata condotta nell’ambito di uno studio prospettico e randomizzato multicentrico italiano di recente pubblicazione, è stato sviluppato un nuovo modello predittivo e prognostico (“score”) che utilizza quattro semplici parametri: l’età del paziente, il grading istologico, lo stadio patologico del tumore (pT) e della componente linfonodale (pN). Lo scopo del presente studio era quello di validare esternamente tale score. Pazienti e Metodi. La validazione è stata condotta su due coorti retrospettive italiane (141 e 246 pazienti) e su una prospettica americana (1943 pazienti). Lo score testato prevedeva il confronto tra due gruppi di pazienti, uno a prognosi favorevole (pazienti con almeno due parametri positivi tra i seguenti: età < 60 anni, pT1-T3a, pN0, grading 1-2) e uno a prognosi sfavorevole (pazienti con meno di due fattori positivi). La statistica descrittiva è stata utilizzata per mostrare la distribuzione dei diversi parametri. Le analisi di sopravvivenza [recurrence free survival (RFS) e overall survival (OS)] sono state eseguite il metodo di Kaplan-Meier e le comparazioni tra i vari gruppi di pazienti sono state condotte utilizzando il Mantel-Haenszel log-rank test e il modello di regressione di Cox. Il metodo di Greenwood è stato utilizzato per stimare la varianza e la costruzione degli intervalli di confidenza al 95% (95% CI), la “C-statistic” è stata utilizzata per descrivere l’ accuratezza dello score. Risultati. I risultati della validazione dello score condotta sulle due casistiche retrospettive italiane, seppur non mostrando una differenza statisticamente significativa tra i due gruppi di pazienti (gruppo favorevole versus sfavorevole), sono stati ritenuti incoraggianti e meritevoli di ulteriore validazione sulla casistica prospettica americana. Lo score ha dimostrato di performare bene sia nel determinare la prognosi in termini di RFS [hazard ratio (HR) 1.85, 95% CI 1.57-2.17, p < 0.001] che di OS [HR 2.58, 95% CI 1.98-3.35, p < 0.001]. Inoltre in questa casistica lo score ha realizzato risultati sovrapponibili a quelli dello University of California Los Angeles Integrated Staging System. Conclusioni. Questo nuovo e semplice score ha dimostrato la sua validità in altre casistiche, sia retrospettive che prospettiche, in termini di impatto prognostico su RFS e OS. Ulteriori validazioni su casistiche internazionali sono in corso per confermare i risultati qui presentati e per testare l’eventuale ruolo predittivo di questo nuovo score.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

La plupart des modèles en statistique classique repose sur une hypothèse sur la distribution des données ou sur une distribution sous-jacente aux données. La validité de cette hypothèse permet de faire de l’inférence, de construire des intervalles de confiance ou encore de tester la fiabilité du modèle. La problématique des tests d’ajustement vise à s’assurer de la conformité ou de la cohérence de l’hypothèse avec les données disponibles. Dans la présente thèse, nous proposons des tests d’ajustement à la loi normale dans le cadre des séries chronologiques univariées et vectorielles. Nous nous sommes limités à une classe de séries chronologiques linéaires, à savoir les modèles autorégressifs à moyenne mobile (ARMA ou VARMA dans le cas vectoriel). Dans un premier temps, au cas univarié, nous proposons une généralisation du travail de Ducharme et Lafaye de Micheaux (2004) dans le cas où la moyenne est inconnue et estimée. Nous avons estimé les paramètres par une méthode rarement utilisée dans la littérature et pourtant asymptotiquement efficace. En effet, nous avons rigoureusement montré que l’estimateur proposé par Brockwell et Davis (1991, section 10.8) converge presque sûrement vers la vraie valeur inconnue du paramètre. De plus, nous fournissons une preuve rigoureuse de l’inversibilité de la matrice des variances et des covariances de la statistique de test à partir de certaines propriétés d’algèbre linéaire. Le résultat s’applique aussi au cas où la moyenne est supposée connue et égale à zéro. Enfin, nous proposons une méthode de sélection de la dimension de la famille d’alternatives de type AIC, et nous étudions les propriétés asymptotiques de cette méthode. L’outil proposé ici est basé sur une famille spécifique de polynômes orthogonaux, à savoir les polynômes de Legendre. Dans un second temps, dans le cas vectoriel, nous proposons un test d’ajustement pour les modèles autorégressifs à moyenne mobile avec une paramétrisation structurée. La paramétrisation structurée permet de réduire le nombre élevé de paramètres dans ces modèles ou encore de tenir compte de certaines contraintes particulières. Ce projet inclut le cas standard d’absence de paramétrisation. Le test que nous proposons s’applique à une famille quelconque de fonctions orthogonales. Nous illustrons cela dans le cas particulier des polynômes de Legendre et d’Hermite. Dans le cas particulier des polynômes d’Hermite, nous montrons que le test obtenu est invariant aux transformations affines et qu’il est en fait une généralisation de nombreux tests existants dans la littérature. Ce projet peut être vu comme une généralisation du premier dans trois directions, notamment le passage de l’univarié au multivarié ; le choix d’une famille quelconque de fonctions orthogonales ; et enfin la possibilité de spécifier des relations ou des contraintes dans la formulation VARMA. Nous avons procédé dans chacun des projets à une étude de simulation afin d’évaluer le niveau et la puissance des tests proposés ainsi que de les comparer aux tests existants. De plus des applications aux données réelles sont fournies. Nous avons appliqué les tests à la prévision de la température moyenne annuelle du globe terrestre (univarié), ainsi qu’aux données relatives au marché du travail canadien (bivarié). Ces travaux ont été exposés à plusieurs congrès (voir par exemple Tagne, Duchesne et Lafaye de Micheaux (2013a, 2013b, 2014) pour plus de détails). Un article basé sur le premier projet est également soumis dans une revue avec comité de lecture (Voir Duchesne, Lafaye de Micheaux et Tagne (2016)).

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Ce mémoire présente les résultats d’une synthèse systématique (SS) des écrits traitant des instruments d’évaluation multidimensionnelle des troubles concomitants qui peuvent être présentés par les adolescent(e)s. La SS a permis d’identifier 11 instruments en mesure d’évaluer les troubles comorbides de l’Axe I du DSM-IV, incluant chaque fois les troubles liés à l’utilisation de substances psychoactives (TUS). Une fois les instruments répertoriés, une seconde recherche fut effectuée afin identifier les études les ayant mis à l’épreuve du point de vue de leur validité et de leur fidélité diagnostique : 57 études furent identifiées. La robustesse méthodologique de ces études fut analysée à l’aide de la grille du QUADAS-2 et 47 études furent retenues pour l’échantillon final. Les résultats sont présentés par diagnostics (troubles liés à l’utilisation des substances (TUS) (obligatoire), trouble d’anxiété généralisée (TAG), épisode dépressif majeur (ÉDM), troubles des conduites (TC), trouble du déficit de l’attention /hyperactivité (TDA/H), état de stress post-traumatique (ÉSPT) et par instrument retenu. Suite à l’analyse des données recueillies, il s’avère difficile de comparer les instruments les uns aux autres, étant donnée la très grande diversité des échelles qu’ils contiennent, ainsi que les devis fort différents des études qui les ont mis à l’épreuve. Par contre, deux instruments se distinguent par la robustesse méthodologique des études à leur sujet, ainsi que leur excellente performance globale. Il s’agit du ChIPS et du K-SADS.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

L’électrofilage est une technique de mise en œuvre efficace et versatile qui permet la production de fibres continues d’un diamètre typique de quelques centaines de nanomètres à partir de l’application d’un haut voltage sur une solution concentrée de polymères enchevêtrés. L’évaporation extrêmement rapide du solvant et les forces d’élongation impliquées dans la formation de ces fibres leur confèrent des propriétés hors du commun et très intéressantes pour plusieurs types d’applications, mais dont on commence seulement à effleurer la surface. À cause de leur petite taille, ces matériaux ont longtemps été étudiés uniquement sous forme d’amas de milliers de fibres avec les techniques conventionnelles telles que la spectroscopie infrarouge ou la diffraction des rayons X. Nos connaissances de leur comportement proviennent donc toujours de la convolution des propriétés de l’amas de fibres et des caractéristiques spécifiques de chacune des fibres qui le compose. Les études récentes à l’échelle de la fibre individuelle ont mis en lumière des comportements inhabituels, particulièrement l’augmentation exponentielle du module avec la réduction du diamètre. L’orientation et, de manière plus générale, la structure moléculaire des fibres sont susceptibles d’être à l'origine de ces propriétés, mais d’une manière encore incomprise. L’établissement de relations structure/propriétés claires et l’identification des paramètres qui les influencent représentent des défis d’importance capitale en vue de tirer profit des caractéristiques très particulières des fibres électrofilées. Pour ce faire, il est nécessaire de développer des méthodes plus accessibles et permettant des analyses structurales rapides et approfondies sur une grande quantité de fibres individuelles présentant une large gamme de diamètre. Dans cette thèse, la spectroscopie Raman confocale est utilisée pour l’étude des caractéristiques structurales, telles que l’orientation moléculaire, la cristallinité et le désenchevêtrement, de fibres électrofilées individuelles. En premier lieu, une nouvelle méthodologie de quantification de l’orientation moléculaire par spectroscopie Raman est développée théoriquement dans le but de réduire la complexité expérimentale de la mesure, d’étendre la gamme de matériaux pour lesquels ces analyses sont possibles et d’éliminer les risques d’erreurs par rapport à la méthode conventionnelle. La validité et la portée de cette nouvelle méthode, appelée MPD, est ensuite démontrée expérimentalement. Par la suite, une méthodologie efficace permettant l’étude de caractéristiques structurales à l’échelle de la fibre individuelle par spectroscopie Raman est présentée en utilisant le poly(éthylène téréphtalate) comme système modèle. Les limites de la technique sont exposées et des stratégies expérimentales pour les contourner sont mises de l’avant. Les résultats révèlent une grande variabilité de l'orientation et de la conformation d'une fibre à l'autre, alors que le taux de cristallinité demeure systématiquement faible, démontrant l'importance et la pertinence des études statistiques de fibres individuelles. La présence de chaînes montrant un degré d’enchevêtrement plus faible dans les fibres électrofilées que dans la masse est ensuite démontrée expérimentalement pour la première fois par spectroscopie infrarouge sur des amas de fibres de polystyrène. Les conditions d'électrofilage favorisant ce phénomène structural, qui est soupçonné d’influencer grandement les propriétés des fibres, sont identifiées. Finalement, l’ensemble des méthodologies développées sont appliquées sur des fibres individuelles de polystyrène pour l’étude approfondie de l’orientation et du désenchevêtrement sur une large gamme de diamètres et pour une grande quantité de fibres. Cette dernière étude permet l’établissement de la première relation structure/propriétés de ces matériaux, à l’échelle individuelle, en montrant clairement le lien entre l’orientation moléculaire, le désenchevêtrement et le module d'élasticité des fibres.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

L'oxygénothérapie hyperbare (OTH) consiste à soumettre un patient à des taux de pression plus élevés que la pression atmosphérique normale et de lui faire respirer 100 % d'oxygène. Cette approche a été mise à l'essai pour le traitement de nombreuses conditions médicales avec succès dans certains cas alors pour d'autres sa validité reste encore à démontrer. Dans le cas de la paralysie cérébrale son utilisation a soulevé de nombreuses controverses et les études conduites jusqu'alors n'ont pas encore convaincu tous les membres de la communauté scientifique et ce, malgré certains effets positifs mis en évidence. Une récente étude qui a montré des améliorations notables chez des enfants atteints de paralysie cérébrale (PC) traités avec de l'air légèrement pressurisé, de même que chez ceux traités avec un protocole standard pour l'oxygénothérapie hyperbare (l'OTH), est invoquée pour nier l'efficacité de l'OTH. Des considérations politiques et économiques, plutôt que purement scientifiques, jouent un rôle important dans cette controverse. Des recherches systématiques supplémentaires sont requises, mais entre-temps, comme les effets thérapeutiques de cette approche semblent plus importants que ceux des thérapies actuellement acceptées dans le traitement de la paralysie cérébrale, les enfants atteints de cette condition ne devraient pas se faire refuser l'accès à l'OTH.