972 resultados para Théorie fonctionnelle de la densité
Resumo:
La relocalisation et la dégradation médiée par ubiquitination sont utilisées par la cellule pour contrôler la localisation et l’expression de ses protéines. L’E3 ubiquitine ligase MARCH1 est impliqué dans la régulation post-traductionnelle de CMH-II et de CD86. Dans ce mémoire, on propose un rôle additionnel à MARCH1. Nos résultats expérimentaux nous portent à croire que MARCH1 pourrait moduler le métabolisme cellulaire en favorisant la relocalisation et la dégradation d’enzymes impliquées dans la glycolyse. La grande majorité des cellules utilise la phosphorylation oxydative pour générer de l’ATP en présence d’oxygène. Dans un environnement hypoxique, cette dernière est non fonctionnelle et la cellule doit utiliser la glycolyse anaérobique pour produire son ATP. Une cellule cancéreuse à des besoins énergétiques supérieurs en raison de l’augmentation de sa biomasse et de sa prolifération incontrôlée. Pour subvenir à ces besoins, elle maximise sa production d’énergie en modifiant son métabolisme; c’est l’effet Warburg. On retrouve dans les cellules immunitaires des modifications similaires au métabolisme cellulaire suite à un signal d’activation. Ici, nous montrons que la respiration mitochondriale maximale, la réserve respiratoire et la glycolyse maximale sont diminuées dans les cellules présentatrice d’antigènes qui expriment MARCH1. Nous avons montré que MARCH1 était localisable au niveau de la mitochondrie, ce qui lui permet d’interagir avec les enzymes de la glycolyse. Finalement, nous avons quantifié l’expression de Eno1 et de LDHB par Western Blot, pour montrer une augmentation de l’expression de ces enzymes en absence de MARCH1. À la lumière de ces résultats, nous discutons des avantages que procure la diminution de l’expression de MARCH1 dans un contexte inflammatoire, suite à l’activation des cellules présentatrices d’antigènes. Ce phénomène permettrait une présentation antigénique plus efficace, une augmentation de la production d’énergie et une meilleure résistance aux ROS produits lors de la réponse inflammatoire.
Resumo:
Les médicaments antipsychotiques améliorent les symptômes de la schizophrénie, mais peuvent perdre leur efficacité à long terme en sensibilisant le système dopaminergique. Les mécanismes sous-tendant cette sensibilisation ne sont pas connus. Le neuropeptide neurotensine module le système dopaminergique et est régulé par les antipsychotiques dans le noyau accumbens. Dans cette région, la neurotensine peut avoir des effets anti- et pro-dopaminergiques via les récepteurs NTS1. Nous avions pour hypothèse que la neurotensine du noyau accumbens module l’expression de la sensibilisation dopaminergique induite par les antipsychotiques. Ainsi, nous avons traité par intermittence ou continuellement des rats à l’antipsychotique halopéridol. Seule l’administration continue sensibilise le système dopaminergique et donc sensibilise aux effets locomoteurs de l’amphétamine. Des microinjections de neurotensine dans le noyau accumbens ont diminué l’hyperlocomotion induite par l’amphétamine chez les rats témoins et ceux traités par intermittence aux antipsychotiques. Au contraire, la sensibilisation dopaminergique induite par un traitement continu serait liée à une augmentation des effets pro-dopaminergiques de la neurotensine. Ceci est indépendant d’un changement de densité des récepteurs NTS1 dans le noyau accumbens. Un traitement intermittent n’a pas d’effet sur cette mesure également. De plus, autant un traitement antipsychotique continu qu’intermittent augmentent la transcription de proneurotensine. Donc, seule l’altération de la fonction de la neurotensine du noyau accumbens corrèle avec la sensibilisation dopaminergique. En parallèle, dans le caudé-putamen, un traitement continu augmente la transcription de proneurotensine et un traitement intermittent augmente la densité des récepteurs NTS1. En somme, la neurotensine du noyau accumbens module la sensibilisation dopaminergique induite par les antipsychotiques.
Resumo:
Les avancées techniques et méthodologiques de la neuroscience ont permis de caractériser le sommeil comme un état actif et dynamique où des événements neuronaux cohésifs organisent les fonctions cérébrales. Les fuseaux de sommeil et les ondes lentes sont les marqueurs électroencéphalographiques de ces événements, et la mesure de leurs paramètres reflète et nuance les interactions neuronales à l’oeuvre pendant le sommeil lent. Considérant leur implication dans les fonctions hypniques et cognitives, les événements du sommeil lent sont particulièrement pertinents à l’étude du vieillissement, où l’intégrité de ces fonctions est mise au défi. Le vieillissement normal s’accompagne non seulement de réductions importantes des paramètres composant les événements du sommeil lent, mais aussi de modifications précises de l’intégrité anatomique et fonctionnelle du cerveau. Récemment, les études ont souligné la régulation locale des événements du sommeil lent, dont l’évolution avec l’âge demeure toutefois peu explorée. Le présent ouvrage se propose de documenter les liens unissant la neurophysiologie du sommeil, le vieillissement normal et l’activité régionale du cerveau par l’évaluation topographique et hémodynamique des événements du sommeil lent au cours du vieillissement. Dans une première étude, la densité, la durée, l’amplitude et la fréquence des fuseaux de sommeil ont été évaluées chez trois groupes d’âge au moyen de l’analyse topographique et paramétrique de l’électroencéphalogramme. Dans une seconde étude, les variations hémodynamiques associées à l’occurrence et modulées par l’amplitude des ondes lentes ont été évaluées chez deux groupes d’âge au moyen de l’électroencéphalographie combinée à l’imagerie par résonance magnétique fonctionnelle. Globalement, les résultats obtenus ont indiqué : 1) une dichotomie des aires corticales antérieures et postérieures quant aux effets d’âge sur les paramètres des fuseaux de sommeil; 2) des variations de la réponse hémodynamique associées aux ondes lentes dans une diversité de régions corticales et sous-corticales chez les personnes âgées. Ces résultats suggèrent la réorganisation fonctionnelle de l’activité neuronale en sommeil lent à travers l’âge adulte, soulignent l’utilité et la sensibilité des événements du sommeil lent comme marqueurs de vieillissement cérébral, et encouragent la recherche sur l’évolution des mécanismes de plasticité synaptique, de récupération cellulaire et de consolidation du sommeil avec l’âge.
Resumo:
Le sommeil est un besoin vital et le bon fonctionnement de l’organisme dépend de la quantité et de la qualité du sommeil. Le sommeil est régulé par deux processus : un processus circadien qui dépend de l’activité des noyaux suprachiasmatiques de l’hypothalamus et qui régule le moment durant lequel nous allons dormir, et un processus homéostatique qui dépend de l’activité neuronale et se reflète dans l’intensité du sommeil. En effet, le sommeil dépend de l’éveil qui le précède et plus l’éveil dure longtemps, plus le sommeil est profond tel que mesuré par des marqueurs électroencéphalographiques (EEG). Des études ont montré que le bon fonctionnement de ces deux processus régulateurs du sommeil dépend de la plasticité synaptique. Ainsi, les éléments synaptiques régulant la communication et la force synaptique sont d’importants candidats pour agir sur la physiologie de la régulation du sommeil. Les molécules d’adhésion cellulaire sont des acteurs clés dans les mécanismes de plasticité synaptique. Elles régulent l’activité et la maturation des synapses. Des études ont montré que leur absence engendre des conséquences similaires au manque de sommeil. Le but de ce projet de thèse est d’explorer l’effet de l’absence de deux familles de molécule d’adhésion cellulaire, les neuroligines et la famille des récepteur Eph et leur ligand les éphrines dans les processus régulateurs du sommeil. Notre hypothèse est que l’absence d’un des membres de ces deux familles de molécule affecte les mécanismes impliqués dans le processus homéostatique de régulation du sommeil. Afin de répondre à notre hypothèse, nous avons étudié d’une part l’activité EEG chez des souris mutantes n’exprimant pas Neuroligine‐1 (Nlgn1) ou le récepteur EphA4 en condition normale et après une privation de sommeil. D’autre part, nous avons mesuré les changements moléculaires ayant lieu dans ces deux modèles après privation de sommeil. Au niveau de l’activité EEG, nos résultats montrent que l’absence de Nlgn1 augmente la densité des ondes lentes en condition normale et augment l’amplitude et la pente des ondes lentes après privation de sommeil. Nlgn1 est nécessaire au fonctionnement normal de la synchronie corticale, notamment après une privation de sommeil, lui attribuant ainsi un rôle clé dans l’homéostasie du sommeil. Concernant le récepteur EphA4, son absence affecte la durée du sommeil paradoxal ainsi que l’activité sigma qui dépendent du processus circadien. Nos résultats suggèrent donc que ce récepteur est un élément important dans la régulation circadienne du sommeil. Les changements transcriptionnels en réponse à la privation de sommeil des souris n’exprimant pas Nlgn1 et EphA4 ne sont pas différents des souris sauvages. Toutefois, nous avons montré que la privation de sommeil affectait la distribution des marques épigénétiques sur le génome, tels que la méthylation et l’hydroxyméthylation, et que l’expression des molécules régulant ces changements est modifiée chez les souris mutantes pour le récepteur EphA4. Nos observations mettent en évidence que les molécules d’adhésion cellulaire, Nlgn1 et le récepteur EphA4, possèdent un rôle important dans les processus homéostatique et circadien du sommeil et contribuent de manière différente à la régulation du sommeil.
Resumo:
Un des objectifs de la critique darwinienne de Sharon Street est de montrer que nous devons opter pour l’antiréalisme – plutôt que le réalisme – comme théorie métaéthique appropriée pour décrire le phénomène moral. Plus encore, parmi les théories antiréalistes, Street cherche à défendre que c’est le constructivisme humien que nous devrions privilégier. Dans cet article, je cherche à évaluer la possibilité que l’expressivisme moral soit également une conclusion de la critique darwinienne. Pour ce faire, j’explique en quoi nous pouvons de manière légitime considérer que le constructivisme humien est une théorie expressiviste, dans la mesure où nous nous limitons aux deux thèses que je considère comme étant constitutives de l’expressivisme : l’internalisme motivationnel et la conception humienne des jugements normatifs. C’est de cette manière qu’il est possible de soutenir que l’expressivisme moral est une conclusion de la critique darwinienne.
Resumo:
L’ontologie de Leśniewski est un calcul général des noms. Elle fut créée par Leśniewski pour apporter une solution naturelle au paradoxe de Russell en théorie naïve des ensembles. L’ontologie a été perçue par ses défenseurs et par ses adversaires comme une théorie incompatible avec la théorie des ensembles. Dans le présent texte, nous montrons que l’ontologie de Leśniewski permet, au contraire, de définir une théorie des ensembles qui coïncide avec la théorie de Zermelo- Fraenkel.
Resumo:
L'ouvrage Reasons and Persons de Derek Parfit a souvent été interprété par la critique comme une résurrection de la conception humienne de l'identité personnelle, qui pensait la personne comme un simple agrégat de perceptions. De féroces débats se sont concentrés autour de cette inteprétation de Reasons and Persons dans la mesure où elle tend vers un fictionnalisme à propos de l'existence des personnes que des commentateurs comme Sydney Shoemaker et Quassim Cassam pensent carrément intenable. Malmené par la critique, Parfit développera plus tard une version plus subtile de sa théorie, en avançant la possible existence d'un schème conceptuel entièrement impersonnel qui posséderait un pouvoir explicatif et descriptif identique au nôtre. Nous examinerons comment il faut comprendre un tel schème conceptuel et présenterons quelques découvertes empiriques remettant en question la réelle équivalence d'un schème conceptuel impersonnel au nôtre.
Resumo:
Prima di procedere con il progetto sono state fatte sezioni storiche dell’area, in epoche indicative, per comprendere quelle che sono le invarianti e le caratteristiche di tale tessuto. Da qui si è dedotto lo schema generatore dell’insediamento che parte dall’identificazione degli assi viari (pedonali e carrabili) già presenti nell’area, che fanno diretto riferimento allo schema cardo-decumanico generatore dell’impianto angioino della città. Con il tracciamento si individuano gli isolati base, che con variazioni formali e tipologiche hanno originato gli edifici di progetto. I corpi di fabbrica generatori della planimetria, dialogano e rimangono a stretto contatto con i pochi edifici agibili, per i quali sono previsti consolidamenti e ristrutturazioni, qualora necessari. Inevitabile è stato il confronto con l’orografia, prestando particolare attenzione a non annullare con l’inserimento degli edifici il dislivello presente, ma lasciarlo percepire chiaramente: l’attacco a terra di ogni edificio avviene gradualmente, passando dai due piani fuori terra a monte ai tre, quattro a valle. Ovviamente non tutti gli assi sono stati trattati allo stesso modo, ma conseguentemente alla loro funzione e carattere di utilizzo. Analizzando la struttura viaria dell’intera area, si presentano schematicamente due anelli di circonvallazione del centro urbano: uno più esterno, di più recente costruzione, rappresentato da via XX Settembre, e uno più vecchio, che rimane rasente al centro storico, costituito dal viale Duca Degli Abruzzi, che prosegue in viale Giovanni XXIII e termina nel viadotto Belvedere. Quest’ultimo asse rappresenta sicuramente un importante collegamento cittadino, sia per la vicinanza al centro, sia per le porzioni di città messe in comunicazione; nonostante ciò il viadotto ha subito, all’altezza di viale Nicolò Persichetti, uno smottamento dopo il 6 aprile, ed essendo un elemento di scarso valore architettonico e spaziale, la sua presenza è stata ripensata. Compiendo una deviazione su via XX Settembre al termine di viale Duca Degli Abruzzi, che va a sfruttare la già presente via Fonte Preturo, non si va a rivoluzionante l’odierno assetto, che confluisce comunque, qualche centinaio di metri dopo, in via XX Settembre è si eliminano le connotazioni negative che il viadotto avrebbe sul rinnovato ingresso al centro storico. La vivibilità tende a favorire così collegamento e all’eterogeneità degli spazi più che la separazione fisica e psicologica: il concetto di città fa riferimento alla vita in comune; per favorirla è importante incentivare i luoghi di aggregazione, gli spazi aperti. Dalle testimonianze degli aquilani la vita cittadina vedeva il centro storico come principale luogo d’incontro sociale. Esso era animato dal numeroso “popolo” di studenti, che lo manteneva attivo e vitale. Per questo nelle intenzioni progettuali si pone l’accento su una visione attiva di città con un carattere unitario come sostiene Ungers3. La funzione di collegamento, che crea una struttura di luoghi complementari, può essere costituita dal sistema viario e da quello di piazze (luoghi sociali per eccellenza). Via Fontesecco ha la sua terminazione nell’omonima piazza: questo spazio urbano è sfruttato, nella conformazione attuale, come luogo di passaggio, piuttosto che di sosta, per questo motivo deve essere ricalibrato e messo in relazione ad un sistema più ampio di quello della sola via. In questo sistema di piazze rientra anche la volontà di mettere in relazione le emergenze architettoniche esistenti nell’area e nelle immediate vicinanze, quali la chiesa e convento dell’Addolorata, Palazzo Antonelli e la chiesa di San Domenico (che si attestano tutte su spazi aperti), e la chiesa di San Quinziano su via Buccio di Ranallo. In quest’ottica l’area d’intervento è intesa come appartenente al centro storico, parte del sistema grazie alla struttura di piazze, e allo stesso tempo come zona filtro tra centro e periferia. La struttura di piazze rende l’area complementare alla trama di pieni e vuoti già presente nel tessuto urbano cittadino; la densità pensata nel progetto, vi si accosta con continuità, creando un collegamento con l’esistente; allontanandosi dal centro e avvicinandosi quindi alle più recenti espansioni, il tessuto muta, concedendo più spazio ai vuoti urbani e al verde. Via Fontesecco, il percorso che delimita il lato sud dell’area, oltre ad essere individuata tra due fronti costruiti, è inclusa tra due quinte naturali: il colle dell’Addolorata (con le emergenze già citate) e il colle Belvedere sul quale s’innesta ora il viadotto. Questi due fronti naturali hanno caratteri molto diversi tra loro: il colle dell’Addolorata originariamente occupato da orti, ha un carattere urbano, mentre il secondo si presenta come una porzione di verde incolto e inutilizzato che può essere sfruttato come cerniera di collegamento verticale. Lo stesso declivio naturale del colle d’Addolorata che degrada verso viale Duca Degli Abruzzi, viene trattato nel progetto come una fascia verde di collegamento con il nuovo insediamento universitario. L’idea alla base del progetto dell’edilizia residenziale consiste nel ricostruire insediamenti che appartengano parte della città esistente; si tratta quindi, di una riscoperta del centro urbano e una proposta di maggior densità. Il tessuto esistente è integrato per ottenere isolati ben definiti, in modo da formare un sistema ben inserito nel contesto. Le case popolari su via Fontesecco hanno subito con il sisma notevoli danni, e dovendo essere demolite, hanno fornito l’occasione per ripensare all’assetto del fronte, in modo da integrarlo maggiormente con il tessuto urbano retrostante e antistante. Attualmente la conformazione degli edifici non permette un’integrazione ideale tra i percorsi di risalita pedonale al colle dell’Addolorata e la viabilità. Le scale terminano spesso nella parte retrostante gli edifici, senza sfociare direttamente su via Fontesecco. Si è quindi preferito frammentare il fronte, che rispecchiasse anche l’assetto originario, prima cioè dell’intervento fascista, e che consentisse comunque una percezione prospettica e tipologica unitaria, e un accesso alla grande corte retrostante. Il nuovo carattere di via Fontesecco, risultante dalle sezioni stradali e dalle destinazioni d’uso dei piani terra degli edifici progettuali, è quello di un asse commerciale e di servizio per il quartiere. L’intenzione, cercando di rafforzare l’area di progetto come nuovo possibile ingresso al centro storico, è quella di estendere l’asse commerciale fino a piazza Fontesecco, in modo da rendere tale spazio di aggregazione vitale: “I luoghi sono come monadi, come piccoli microcosmi, mondi autonomi, con tutte le loro caratteristiche, pregi e difetti, inseriti in un macrocosmo urbano più grande, che partendo da questi piccoli mondi compone una metropoli e un paesaggio”.4[...] Arretrando verso l’altura dell’Addolorata è inserita la grande corte del nuovo isolato residenziale, anch’essa con servizi (lavanderie, spazi gioco, palestra) ma con un carattere diverso, legato più agli edifici che si attestano sulla corte, anche per l’assenza di un accesso carrabile diretto; si crea così una gerarchia degli spazi urbani: pubblico sulla via e semi-pubblico nella corte pedonale. La piazza che domina l’intervento (piazza dell’Addolorata) è chiusa da un edificio lineare che funge da “quinta”, il centro civico. Molto flessibile, presenta al suo interno spazi espositivi e un auditorium a diretta disposizione del quartiere. Sempre sulla piazza sono presenti una caffetteria, accessibile anche dal parco, che regge un sistema di scale permettendo di attraversare il dislivello con la “fascia” verde del colle, e la nuova ala dell’Hotel “Duca degli Abruzzi”, ridimensionata rispetto all’originale (in parte distrutto dal terremoto), che si va a collegare in maniera organica all’edificio principale. Il sistema degli edifici pubblici è completo con la ricostruzione del distrutto “Istituto della Dottrina Cristiana”, adiacente alla chiesa di San Quinziano, che va a creare con essa un cortile di cui usufruiscono gli alunni di questa scuola materna ed elementare. Analizzando l’intorno, gran parte dell’abitato è definito da edifici a corte che, all’interno del tessuto compatto storico riescono a sopperire la mancanza di spazi aperti con corti, più o meno private, anche per consentire ai singoli alloggi una giusta illuminazione e areazione. Nel progetto si passa da due edifici a corti semi-private, chiusi in se stessi, a un sistema più grande e complesso che crea un ampio “cortile” urbano, in cui gli edifici che vi si affacciano (case a schiera e edifici in linea) vanno a caratterizzare gli spazi aperti. Vi è in questa differenziazione l’intenzione di favorire l’interazione tra le persone che abitano il luogo, il proposito di realizzare elementi di aggregazione più privati di una piazza pubblica e più pubblici di una corte privata. Le variazioni tipologiche degli alloggi poi, (dalla casa a schiera e i duplex, al monolocale nell’edilizia sociale) comportano un’altrettanta auspicabile mescolanza di utenti, di classi sociali, età e perché no, etnie diverse che permettano una flessibilità nell’utilizzo degli spazi pubblici.
Resumo:
Il tomografo sonico è uno strumento di recente applicazione nell’analisi morfo-sintomatica delle alberature. Si tratta di uno strumento che sfrutta la propagazione delle onde sonore nel legno per determinarne la densità e le possibili alterazioni interne. Oltre all’applicazione su larga scala in un parco di Imola, per effettuare una valutazione approfondita di tutti gli esemplari, lo strumento è stato applicato per scopi diversi. In prima analisi è stato utilizzato per valutare stadi precoci di alterazione e l’evoluzione delle patologie interne nel tempo. Successivamente si voleva identificare il percorso di sostanze liquide iniettate con mezzi endoterapici nel tronco, attraverso l’applicazione di tomografia sonica sopra e sotto il punto di iniezione. In ultima analisi è stato effettuato un confronto tra tomografia sonica e risonanza magnetica nucleare per identificare patologie invisibili ai normali strumenti utilizzati nell’analisi della stabilità delle piante.
Resumo:
Numerosi incidenti verificatisi negli ultimi dieci anni in campo chimico e petrolchimico sono dovuti all’innesco di sostanze infiammabili rilasciate accidentalmente: per questo motivo gli scenari incidentali legati ad incendi esterni rivestono oggigiorno un interesse crescente, in particolar modo nell’industria di processo, in quanto possono essere causa di ingenti danni sia ai lavoratori ed alla popolazione, sia alle strutture. Gli incendi, come mostrato da alcuni studi, sono uno dei più frequenti scenari incidentali nell’industria di processo, secondi solo alla perdita di contenimento di sostanze pericolose. Questi eventi primari possono, a loro volta, determinare eventi secondari, con conseguenze catastrofiche dovute alla propagazione delle fiamme ad apparecchiature e tubazioni non direttamente coinvolte nell’incidente primario; tale fenomeno prende il nome di effetto domino. La necessità di ridurre le probabilità di effetto domino rende la mitigazione delle conseguenze un aspetto fondamentale nella progettazione dell’impianto. A questo scopo si impiegano i materiali per la protezione passiva da fuoco (Passive Fire Protection o PFP); essi sono sistemi isolanti impiegati per proteggere efficacemente apparecchiature e tubazioni industriali da scenari di incendio esterno. L’applicazione dei materiali per PFP limita l’incremento di temperatura degli elementi protetti; questo scopo viene raggiunto tramite l’impiego di differenti tipologie di prodotti e materiali. Tuttavia l’applicazione dei suddetti materiali fireproofing non può prescindere da una caratterizzazione delle proprietà termiche, in particolar modo della conducibilità termica, in condizioni che simulino l’esposizione a fuoco. Nel presente elaborato di tesi si è scelto di analizzare tre materiali coibenti, tutti appartenenti, pur con diversità di composizione e struttura, alla classe dei materiali inorganici fibrosi: Fibercon Silica Needled Blanket 1200, Pyrogel®XT, Rockwool Marine Firebatt 100. I tre materiali sono costituiti da una fase solida inorganica, differente per ciascuno di essi e da una fase gassosa, preponderante come frazione volumetrica. I materiali inorganici fibrosi rivestono una notevole importanza rispetto ad altri materiali fireproofing in quanto possono resistere a temperature estremamente elevate, talvolta superiori a 1000 °C, senza particolari modifiche chimico-fisiche. Questo vantaggio, unito alla versatilità ed alla semplicità di applicazione, li rende leader a livello europeo nei materiali isolanti, con una fetta di mercato pari circa al 60%. Nonostante l’impiego dei suddetti materiali sia ormai una realtà consolidata nell’industria di processo, allo stato attuale sono disponibili pochi studi relativi alle loro proprietà termiche, in particolare in condizioni di fuoco. L’analisi sperimentale svolta ha consentito di identificare e modellare il comportamento termico di tali materiali in caso di esposizione a fuoco, impiegando nei test, a pressione atmosferica, un campo di temperatura compreso tra 20°C e 700°C, di interesse per applicazioni fireproofing. Per lo studio delle caratteristiche e la valutazione delle proprietà termiche dei tre materiali è stata impiegata principalmente la tecnica Transient Plane Source (TPS), che ha consentito la determinazione non solo della conducibilità termica, ma anche della diffusività termica e della capacità termica volumetrica, seppure con un grado di accuratezza inferiore. I test sono stati svolti su scala di laboratorio, creando un set-up sperimentale che integrasse opportunamente lo strumento Hot Disk Thermal Constants Analyzer TPS 1500 con una fornace a camera ed un sistema di acquisizione dati. Sono state realizzate alcune prove preliminari a temperatura ambiente sui tre materiali in esame, per individuare i parametri operativi (dimensione sensori, tempi di acquisizione, etc.) maggiormente idonei alla misura della conducibilità termica. Le informazioni acquisite sono state utilizzate per lo sviluppo di adeguati protocolli sperimentali e per effettuare prove ad alta temperatura. Ulteriori significative informazioni circa la morfologia, la porosità e la densità dei tre materiali sono state ottenute attraverso stereo-microscopia e picnometria a liquido. La porosità, o grado di vuoto, assume nei tre materiali un ruolo fondamentale, in quanto presenta valori compresi tra 85% e 95%, mentre la frazione solida ne costituisce la restante parte. Inoltre i risultati sperimentali hanno consentito di valutare, con prove a temperatura ambiente, l’isotropia rispetto alla trasmissione del calore per la classe di materiali coibenti analizzati, l’effetto della temperatura e della variazione del grado di vuoto (nel caso di materiali che durante l’applicazione possano essere soggetti a fenomeni di “schiacciamento”, ovvero riduzione del grado di vuoto) sulla conducibilità termica effettiva dei tre materiali analizzati. Analoghi risultati, seppure con grado di accuratezza lievemente inferiore, sono stati ottenuti per la diffusività termica e la capacità termica volumetrica. Poiché è nota la densità apparente di ciascun materiale si è scelto di calcolarne anche il calore specifico in funzione della temperatura, di cui si è proposto una correlazione empirica. I risultati sperimentali, concordi per i tre materiali in esame, hanno mostrato un incremento della conducibilità termica con la temperatura, da valori largamente inferiori a 0,1 W/(m∙K) a temperatura ambiente, fino a 0,3÷0,4 W/(m∙K) a 700°C. La sostanziale similitudine delle proprietà termiche tra i tre materiali, appartenenti alla medesima categoria di materiali isolanti, è stata riscontrata anche per la diffusività termica, la capacità termica volumetrica ed il calore specifico. Queste considerazioni hanno giustificato l’applicazione a tutti i tre materiali in esame dei medesimi modelli per descrivere la conducibilità termica effettiva, ritenuta, tra le proprietà fisiche determinate sperimentalmente, la più significativa nel caso di esposizione a fuoco. Lo sviluppo di un modello per la conducibilità termica effettiva si è reso necessario in quanto i risultati sperimentali ottenuti tramite la tecnica Transient Plane Source non forniscono alcuna informazione sui contributi offerti da ciascun meccanismo di scambio termico al termine complessivo e, pertanto, non consentono una facile generalizzazione della proprietà in funzione delle condizioni di impiego del materiale. La conducibilità termica dei materiali coibenti fibrosi e in generale dei materiali bi-fasici tiene infatti conto in un unico valore di vari contributi dipendenti dai diversi meccanismi di scambio termico presenti: conduzione nella fase gassosa e nel solido, irraggiamento nelle superfici delle cavità del solido e, talvolta, convezione; inoltre essa dipende fortemente dalla temperatura e dalla porosità. Pertanto, a partire dal confronto con i risultati sperimentali, tra cui densità e grado di vuoto, l’obiettivo centrale della seconda fase del progetto è stata la scelta, tra i numerosi modelli a disposizione in letteratura per materiali bi-fasici, di cui si è presentata una rassegna, dei più adatti a descrivere la conducibilità termica effettiva nei materiali in esame e nell’intervallo di temperatura di interesse, fornendo al contempo un significato fisico ai contributi apportati al termine complessivo. Inizialmente la scelta è ricaduta su cinque modelli, chiamati comunemente “modelli strutturali di base” (Serie, Parallelo, Maxwell-Eucken 1, Maxwell-Eucken 2, Effective Medium Theory) [1] per la loro semplicità e versatilità di applicazione. Tali modelli, puramente teorici, hanno mostrato al raffronto con i risultati sperimentali numerosi limiti, in particolar modo nella previsione del termine di irraggiamento, ovvero per temperature superiori a 400°C. Pertanto si è deciso di adottare un approccio semi-empirico: è stato applicato il modello di Krischer [2], ovvero una media pesata su un parametro empirico (f, da determinare) dei modelli Serie e Parallelo, precedentemente applicati. Anch’esso si è rivelato non idoneo alla descrizione dei materiali isolanti fibrosi in esame, per ragioni analoghe. Cercando di impiegare modelli caratterizzati da forte fondamento fisico e grado di complessità limitato, la scelta è caduta sui due recenti modelli, proposti rispettivamente da Karamanos, Papadopoulos, Anastasellos [3] e Daryabeigi, Cunnington, Knutson [4] [5]. Entrambi presentavano il vantaggio di essere stati utilizzati con successo per materiali isolanti fibrosi. Inizialmente i due modelli sono stati applicati con i valori dei parametri e le correlazioni proposte dagli Autori. Visti gli incoraggianti risultati, a questo primo approccio è seguita l’ottimizzazione dei parametri e l’applicazione di correlazioni maggiormente idonee ai materiali in esame, che ha mostrato l’efficacia dei modelli proposti da Karamanos, Papadopoulos, Anastasellos e Daryabeigi, Cunnington, Knutson per i tre materiali analizzati. Pertanto l’obiettivo finale del lavoro è stato raggiunto con successo in quanto sono stati applicati modelli di conducibilità termica con forte fondamento fisico e grado di complessità limitato che, con buon accordo ai risultati sperimentali ottenuti, consentono di ricavare equazioni predittive per la stima del comportamento, durante l’esposizione a fuoco, dei materiali fireproofing in esame. Bologna, Luglio 2013 Riferimenti bibliografici: [1] Wang J., Carson J.K., North M.F., Cleland D.J., A new approach to modelling the effective thermal conductivity of heterogeneous materials. International Journal of Heat and Mass Transfer 49 (2006) 3075-3083. [2] Krischer O., Die wissenschaftlichen Grundlagen der Trocknungstechnik (The Scientific Fundamentals of Drying Technology), Springer-Verlag, Berlino, 1963. [3] Karamanos A., Papadopoulos A., Anastasellos D., Heat Transfer phenomena in fibrous insulating materials. (2004) Geolan.gr http://www.geolan.gr/sappek/docs/publications/article_6.pdf Ultimo accesso: 1 Luglio 2013. [4] Daryabeigi K., Cunnington G. R., and Knutson J. R., Combined Heat Transfer in High-Porosity High-Temperature Fibrous Insulation: Theory and Experimental Validation. Journal of Thermophysics and Heat Transfer 25 (2011) 536-546. [5] Daryabeigi K., Cunnington G.R., Knutson J.R., Heat Transfer Modeling for Rigid High-Temperature Fibrous Insulation. Journal of Thermophysics and Heat Transfer. AIAA Early Edition/1 (2012).
Resumo:
Il lavoro è stato strutturato in due parti distinte. La prima riguarda il riordino delle informazioni contenute nella Banca Dati sui Castelli dell’Emilia Romagna ultimata nel 2004, arricchendo le informazioni con nuove fonti sia edite che inedite e fotografie, mettendo poi tutti i dati online sul sito Geologia Storia Turismo della Regione Emilia Romagna. La seconda parte ha riguardato invece l’analisi dell’area reggiana e, in particolare, di tre castelli: Rubiera, Salvaterra e Dinazzano che, a partire dalla fine del XII secolo, hanno costituito quella che è stata definita la Cintura sul Secchia, una vera e propria catena difensiva costruita dal comune di Reggio Emilia a protezione del suo confine orientale, quello con Modena. Nella prima parte si è predisposto l’avvio di un Atlante dei castelli esistenti e scomparsi dell’Emilia Romagna, strutturato provincia per provincia, con corredo di piante e grafici che indicano la consistenza del fenomeno nelle diverse aree della Regione; poi, per l’area reggiana, si è completata la disamina con una serie di grafici che mettono in luce la dislocazione per aree, la localizzazione sicura dei castelli in rapporto alla loro condizione attuale e la densità per aree del fenomeno. Infine si sono inserite informazioni ricavate da materiale inedito per verificare possibili sviluppi della Banca Dati. La seconda parte ha ricostruito non solo le vicende storico-costruttive dei castelli di Rubiera, Salvaterra e Dinazzano, ma ha approfondito anche la genesi e l’evoluzione di questo progetto di difesa territoriale: studiare questo progetto significa capire come il comune di Reggio Emilia, nell’arco di oltre un secolo, ha governato i propri castelli, come ne ha organizzato la difesa e la manutenzione e come ne ha progettato il popolamento.
Resumo:
L’estimation du stock de carbone contenu dans les forêts peut être effectuée de plusieurs manières. Les méthodes les plus connues sont destructives et nécessitent l’abattage d’un grand nombre représentatif d’arbres. Cette représentativité est difficilement atteinte dans les forêts tropicales, présentant une diversité d’espèces exceptionnelles, comme à Madagascar. Afin d’évaluer le niveau de dégradation des forêts, une étude d'images par télédétection est effectuée au moyen de l’analyse du signal radiométrique, combinée à un inventaire non destructif de biomasse. L’étude de la dynamique du paysage proposé est alors basée sur une correction atmosphérique d’une image SPOT 5, de l’année 2009, et sur une classification semi supervisée de l’occupation des sols, combinant une classification préliminaire non supervisée, un échantillonnage aléatoire des classes et une classification supervisée avec un maximum de vraisemblance. La validation est effectuée à l’aide de points indépendants relevés lors des inventaires de biomasse avec des valeurs du stock de carbone bien précises. La classification non supervisée a permis de ressortir deux classes de forêt dénommées « peu dégradée » et « dégradée ». La première désigne l’état climax (le stock de carbone a atteint une valeur qui varie peu) alors que la seconde est caractérisée par un taux de carbone plus faible que le niveau climax, mais qui peut être atteint sans perturbation. Cette première classification permet alors de répartir les placettes d’inventaire dans chaque classe. La méthode d’inventaire recueille à la fois des données dendrométriques classiques (espèce, densité, hauteur totale, hauteur fût, diamètre) et des échantillons représentatifs de branches et de feuilles sur un arbre. Ces différents paramètres avec la densité de bois permettent d’établir une équation allométrique de laquelle est estimée la biomasse totale d’un arbre et conséquemment de la formation forestière. Par la suite, la classification supervisée a été effectuée à partir d’échantillons aléatoires donnant la valeur de séparabilité des classes, de la classification finale. De plus, les valeurs de stocks de carbone à l’hectare, estimées de chaque placette, ont permis de valider cette classification et d’avoir une évaluation de la précision. La connaissance de ce niveau de dégradation issue de données satellitaires à haute résolution spatiale, combinées à des données d’inventaire, ouvre le champ du suivi interannuel du stock de carbone et subséquemment de la modélisation de la situation future du stock de carbone dans différents types de forêts.
Resumo:
Annette von Droste-Hülshoff, «die grösste deutsche Dichterin», comme on le dit fréquemment en allemand, a longtemps passé pour intraduisible. Ces traductions essaient pour la première fois de respecter la densité des vers allemands, tant sur les plans phonique que sémantique.
Resumo:
Ce projet a pour objectif de (1) décrire la filière charbon dans un terroir de la commune de Soalara, (2) d’identifier les effets des activités de fabrication de charbon de bois sur la végétation des pâturages qui est un fourré épineux et (3) d’estimer la quantité maximale de charbon pouvant être produite sans causer sa dégradation irréversible. Pour ce faire, des enquêtes auprès de la population locale et des relevés écologiques ont été entrepris. La majorité des ménages enquêtés (>80% ; N=56) pratiquent la fabrication de charbon de bois. Environ 41 000 sacs de charbons ont été produits dans le terroir en 2009. L’impact socio-économique de la filière charbon est positif puisqu’elle génère des revenus importants pour ses agents (producteur, transporteur et collecteur). Par contre, l’impact écologique est plutôt négatif puisque les activités charbonnières contribuent à réduire la densité d’arbres et d’arbustes de la végétation des fourrés épineux et sa richesse spécifique même si elles n’affectent pas trop sa disponibilité fourragère. De plus, la quantité de charbon produite (environ 820 t en 2009) dépasse la productivité de la végétation, estimée à 218 t.an-1. Par conséquent, une dégradation du site de production actuel, se traduisant par la disparition des espèces charbonnières, arriverait dans 17 ans au plus tard, si le rythme de production actuel continue. Des mesures de réduction des pressions sur la végétation (professionnalisation des éleveurs, amélioration des rendements de carbonisation et réglementation et contrôle plus strict de la filière charbon) et d’augmentation de sa production et productivité (restauration) doivent être prises pour éviter cette dégradation irréversible qui à terme pourrait être dommageable à l’élevage de petits ruminants même si ce n’est pas encore le cas actuellement.
Resumo:
Cet ouvrage propose une lecture radicalement nouvelle de la pensée saussurienne, fondée sur la reconnaissance de la distinction entre langue et idiome instaurée par la théorie saussurienne de la langue. Cette distinction, qui a été recouverte par l'ensemble de la linguistique postsaussurienne, ouvre l'espace du langage comme espace de théorisation. Une lecture qui donne lieu à une reconsidération des rapports entre linguistique et psychanalyse ainsi que de la question de la neurolinguistique.