909 resultados para idrossiapatite, cranioplastica, protesi, biomimetiche, microonde, DoE
Resumo:
We present STAR measurements of azimuthal anisotropy by means of the two- and four-particle cumulants nu(2) (nu(2){2} and nu(2){4}) for Au + Au and Cu + Cu collisions at center-of-mass energies root S-NN = 62.4 and 200 GeV. The difference between nu(2){2}(2) and nu(2){4}(2) is related to nu(2) fluctuations (sigma(nu 2)) and nonflow (delta(2)). We present an upper limit to sigma(nu 2)/nu 2. Following the assumption that eccentricity fluctuations sigma(epsilon) dominate nu(2) fluctuations nu(2)/sigma nu(2) approximate to epsilon/sigma epsilon we deduce the nonflow implied for several models of eccentricity fluctuations that would be required for consistency with nu(2){2} and nu(2){4}. We also present results on the ratio of nu(2) to eccentricity.
Resumo:
STAR's measurements of directed flow (v(1)) around midrapidity for pi(+/-), K-+/-, K-S(0), p, and (p) over bar in Au + Au collisions at root s(NN) = 200 GeV are presented. A negative v(1) (y) slope is observed for most of produced particles (pi(+/-), K-+/-, K-S(0), p, and (p) over bar). In 5%-30% central collisions, a sizable difference is present between the v(1)(y) slope of protons and antiprotons, with the former being consistent with zero within errors. The v(1) excitation function is presented. Comparisons to model calculations (RQMD, UrQMD, AMPT, QGSM with parton recombination, and a hydrodynamics model with a tilted source) are made. For those models which have calculations of v(1) for both pions and protons, none of them can describe v(1()y) forpions and protons simultaneously. The hydrodynamics model with a tilted source as currently implemented cannot explain the centrality dependence of the difference between the v(1)(y) slopes of protons and antiprotons.
Resumo:
We have searched for sidereal variations in the rate of antineutrino interactions in the MINOS Near Detector. Using antineutrinos produced by the NuMI beam, we find no statistically significant sidereal modulation in the rate. When this result is placed in the context of the Standard Model Extension theory we are able to place upper limits on the coefficients defining the theory. These limits are used in combination with the results from an earlier analysis of MINOS neutrino data to further constrain the coefficients.
Resumo:
Polarized magnetophotoluminescence is employed to study the energies and occupancies of four lowest Landau levels in a couple quantum Hall GaAs/AlGaAs double quantum well. As a result, a magnetic field-induced redistribution of charge over the Landau levels manifesting to the continuous formation of the charge density wave and direct evidence for the symmetric-antisymmetric gap shrinkage at v = 3 are found. The observed interlayer charge exchange causes depolarization of the ferromagnetic ground state.
Resumo:
This paper reports measurements of atmospheric neutrino and antineutrino interactions in the MINOS Far Detector, based on 2553 live-days (37.9 kton-years) of data. A total of 2072 candidate events are observed. These are separated into 905 contained-vertex muons and 466 neutrino-induced rock-muons, both produced by charged-current nu(mu) and (nu) over bar (mu) interactions, and 701 contained-vertex showers, composed mainly of charged-current nu(e) and (nu) over bar (e) interactions and neutral-current interactions. The curvature of muon tracks in the magnetic field of the MINOS Far Detector is used to select separate samples of nu(mu) and (nu) over bar (mu) events. The observed ratio of (nu) over bar (mu) to v(mu) events is compared with the Monte Carlo ( MC) simulation, giving a double ratio of R((nu) over bar/nu)data/R(nu) over bar/nu MC = 1.03 +/- 0.08(stat) +/- 0.08(syst). The v(mu) and (nu) over bar (mu) data are separated into bins of L/E resolution, based on the reconstructed energy and direction of each event, and a maximum likelihood fit to the observed L/E distributions is used to determine the atmospheric neutrino oscillation parameters. This fit returns 90% confidence limits of |Delta m(2)| = (1.9 +/- 0.4) x 10(-3) eV(2) and sin(2)2 theta > 0.86. The fit is extended to incorporate separate nu(mu) and (nu) over bar mu oscillation parameters, returning 90% confidence limits of |Delta m(2)| - |Delta(m) over bar (2)| = 0.6(-0.8)(+2.4) x 10(-3) eV(2) on the difference between the squared-mass splittings for neutrinos and antineutrinos.
Resumo:
Measurements of the differential cross section and the transverse single-spin asymmetry, A(N), vs x(F) for pi(0) and eta mesons are reported for 0.4 < x(F) < 0.75 at an average pseudorapidity of 3.68. A data sample of approximately 6.3 pb(-1) was analyzed, which was recorded during p(up arrow) + p collisions at root s = 200 GeV by the STAR experiment at RHIC. The average transverse beam polarization was 56%. The cross section for pi(0), including the previously unmeasured region of x(F) > 0.55, is consistent with a perturbative QCD prediction, and the eta/pi(0) cross-section ratio agrees with existing midrapidity measurements. For 0.55 < x(F) < 0.75, the average A(N) for eta is 0.210 +/- 0.056, and that for pi(0) is 0.081 +/- 0.016. The probability that these two asymmetries are equal is similar to 3%.
Resumo:
A tank experiment was conducted to check if self-potential (SP) signals can be generated when buried organic matter is wire-connected to a near-surface, oxygen-rich, sediment layer. This experiment demonstrated that once wired, there was a flux of electrons (hence an electric current) between the lower and upper layers of the sandbox with the system responding as a large-scale microbial fuel cell (a type of bioelectrochemical system). An electric current was generated by this process in the wire and the SP method was used to monitor the associated electric potential distribution at the top of the tank.. The electric field was controlled by the flux of electrons through the wire, the oxidation of the organic matter, the reduction of oxygen used as a terminal electron acceptor, and the distribution of the DC resistivity in the tank. The current density through the wire was limited by the availability of oxygen and not by the oxidation of the organic matter. This laboratory experiment incorporated key elements of the biogeobattery observed in some organic-rich contaminant plumes. This analogy includes the generation of SP signals associated with a flux of electrons, the capacity of buried organic matter in sustaining anodic reactions, network resistance connecting terminal redox reactions spatially separated in space, and the existence of anodic secondary coupled reactions. A resistivity tomogram of the tank, after almost a year in operation, suggests that oxidative processes triggered by this geobattery can be imaged with this method to determine the radius of influence of the bioelectrochemical system.
Resumo:
We describe an approach to ion implantation in which the plasma and its electronics are held at ground potential and the ion beam is formed and injected energetically into a space held at high negative potential. The technique allows considerable savings both economically and technologically, rendering feasible ion implantation applications that might otherwise not be possible for many researchers and laboratories. Here, we describe the device and the results of tests demonstrating Nb implantation at 90 keV ion energy and dose about 2 x 10(16) cm(-2). (C) 2012 American Institute of Physics. [http://dx.doi.org/10.1063/1.4768699]
Resumo:
Chemically resolved submicron (PM1) particlemass fluxes were measured by eddy covariance with a high resolution time-of-flight aerosolmass spectrometer over temperate and tropical forests during the BEARPEX-07 and AMAZE-08 campaigns. Fluxes during AMAZE-08 were small and close to the detection limit (<1 ng m−2 s−1) due to low particle mass concentrations (<1 μg m−3). During BEARPEX-07, concentrations were five times larger, with mean mid-day deposition fluxes of −4.8 ng m−2 s−1 for total nonrefractory PM1 (Vex,PM1 = −1 mm s−1) and emission fluxes of +2.6 ng m−2 s−1 for organic PM1 (Vex,org = +1 mm s−1). Biosphere–atmosphere fluxes of different chemical components are affected by in-canopy chemistry, vertical gradients in gas-particle partitioning due to canopy temperature gradients, emission of primary biological aerosol particles, and wet and dry deposition. As a result of these competing processes, individual chemical components had fluxes of varying magnitude and direction during both campaigns. Oxygenated organic components representing regionally aged aerosol deposited, while components of fresh secondary organic aerosol (SOA) emitted. During BEARPEX-07, rapid incanopy oxidation caused rapid SOA growth on the timescale of biosphere-atmosphere exchange. In-canopy SOA mass yields were 0.5–4%. During AMAZE-08, the net organic aerosol flux was influenced by deposition, in-canopy SOA formation, and thermal shifts in gas-particle partitioning.Wet deposition was estimated to be an order ofmagnitude larger than dry deposition during AMAZE-08. Small shifts in organic aerosol concentrations from anthropogenic sources such as urban pollution or biomass burning alters the balance between flux terms. The semivolatile nature of the Amazonian organic aerosol suggests a feedback in which warmer temperatures will partition SOA to the gas-phase, reducing their light scattering and thus potential to cool the region.
Resumo:
Con questo studio si è volto effettuare un confronto tra la generazione di energia termica a partire da cippato e da pellet, con particolare riferimento agli aspetti di carattere ambientale ed economico conseguenti la produzione delle due differenti tipologie di combustibile. In particolare, si sono ipotizzate due filire, una di produzione del cippato, una del pellet, e per ciascuna di esse si è condotta un'Analisi del Ciclo di Vita, allo scopo di mettere in luce, da un lato le fasi del processo maggiormente critiche, dall'altro gli impatti sulla salute umana, sugli ecosistemi, sul consumo di energia e risorse. Quest'analisi si è tradotta in un confronto degli impatti generati dalle due filiere al fine di valutare a quale delle due corrisponda il minore. E' stato infine effettuato un breve accenno di valutazione economica per stimare quale tipologia di impianto, a cippato o a pellet, a parità di energia prodotta, risulti più conveniente.
Resumo:
Background. The surgical treatment of dysfunctional hips is a severe condition for the patient and a costly therapy for the public health. Hip resurfacing techniques seem to hold the promise of various advantages over traditional THR, with particular attention to young and active patients. Although the lesson provided in the past by many branches of engineering is that success in designing competitive products can be achieved only by predicting the possible scenario of failure, to date the understanding of the implant quality is poorly pre-clinically addressed. Thus revision is the only delayed and reliable end point for assessment. The aim of the present work was to model the musculoskeletal system so as to develop a protocol for predicting failure of hip resurfacing prosthesis. Methods. Preliminary studies validated the technique for the generation of subject specific finite element (FE) models of long bones from Computed Thomography data. The proposed protocol consisted in the numerical analysis of the prosthesis biomechanics by deterministic and statistic studies so as to assess the risk of biomechanical failure on the different operative conditions the implant might face in a population of interest during various activities of daily living. Physiological conditions were defined including the variability of the anatomy, bone densitometry, surgery uncertainties and published boundary conditions at the hip. The protocol was tested by analysing a successful design on the market and a new prototype of a resurfacing prosthesis. Results. The intrinsic accuracy of models on bone stress predictions (RMSE < 10%) was aligned to the current state of the art in this field. The accuracy of prediction on the bone-prosthesis contact mechanics was also excellent (< 0.001 mm). The sensitivity of models prediction to uncertainties on modelling parameter was found below 8.4%. The analysis of the successful design resulted in a very good agreement with published retrospective studies. The geometry optimisation of the new prototype lead to a final design with a low risk of failure. The statistical analysis confirmed the minimal risk of the optimised design over the entire population of interest. The performances of the optimised design showed a significant improvement with respect to the first prototype (+35%). Limitations. On the authors opinion the major limitation of this study is on boundary conditions. The muscular forces and the hip joint reaction were derived from the few data available in the literature, which can be considered significant but hardly representative of the entire variability of boundary conditions the implant might face over the patients population. This moved the focus of the research on modelling the musculoskeletal system; the ongoing activity is to develop subject-specific musculoskeletal models of the lower limb from medical images. Conclusions. The developed protocol was able to accurately predict known clinical outcomes when applied to a well-established device and, to support the design optimisation phase providing important information on critical characteristics of the patients when applied to a new prosthesis. The presented approach does have a relevant generality that would allow the extension of the protocol to a large set of orthopaedic scenarios with minor changes. Hence, a failure mode analysis criterion can be considered a suitable tool in developing new orthopaedic devices.
Resumo:
The Ph.D. thesis describes the simulations of different microwave links from the transmitter to the receiver intermediate-frequency ports, by means of a rigorous circuit-level nonlinear analysis approach coupled with the electromagnetic characterization of the transmitter and receiver front ends. This includes a full electromagnetic computation of the radiated far field which is used to establish the connection between transmitter and receiver. Digitally modulated radio-frequency drive is treated by a modulation-oriented harmonic-balance method based on Krylov-subspace model-order reduction to allow the handling of large-size front ends. Different examples of links have been presented: an End-to-End link simulated by making use of an artificial neural network model; the latter allows a fast computation of the link itself when driven by long sequences of the order of millions of samples. In this way a meaningful evaluation of such link performance aspects as the bit error rate becomes possible at the circuit level. Subsequently, a work focused on the co-simulation an entire link including a realistic simulation of the radio channel has been presented. The channel has been characterized by means of a deterministic approach, such as Ray Tracing technique. Then, a 2x2 multiple-input multiple-output antenna link has been simulated; in this work near-field and far-field coupling between radiating elements, as well as the environment factors, has been rigorously taken into account. Finally, within the scope to simulate an entire ultra-wideband link, the transmitting side of an ultrawideband link has been designed, and an interesting Front-End co-design technique application has been setup.
Resumo:
Obiettivi: Valutare la modalità più efficace per la riabilitazione funzionale del limbo libero di fibula "single strut", dopo ampie resezioni per patologia neoplastica maligna del cavo orale. Metodi: Da una casistica di 62 ricostruzioni microvascolari con limbo libero di fibula, 11 casi sono stati selezionati per essere riabilitati mediante protesi dentale a supporto implantare. 6 casi sono stati trattati senza ulteriori procedure chirurgiche ad eccezione dell'implantologia (gruppo 1), affrontando il deficit di verticalità della fibula attraverso la protesi dentaria, mentre i restanti casi sono stati trattati con la distrazione osteogenetica (DO) della fibula prima della riabilitazione protesica (gruppo 2). Il deficit di verticalità fibula/mandibola è stato misurato. I criteri di valutazione utilizzati includono la misurazione clinica e radiografica del livello osseo e dei tessuti molli peri-implantari, ed il livello di soddisfazione del paziente attraverso un questionario appositamente redatto. Risultati: Tutte le riabilitazioni protesiche sono costituite da protesi dentali avvitate su impianti. L'età media è di 52 anni, il rapporto uomini/donne è di 6/5. Il numero medio di impianti inseriti nelle fibule è di 5. Il periodo massimo di follow-up dopo il carico masticatorio è stato di 30 mesi per il gruppo 1 e di 38.5 mesi (17-81) di media per il gruppo 2. Non abbiamo riportato complicazioni chirurgiche. Nessun impianto è stato rimosso dai pazienti del gruppo 1, la perdita media di osso peri-implantare registrata è stata di 1,5 mm. Nel gruppo 2 sono stati riportati un caso di tipping linguale del vettore di distrazione durante la fase di consolidazione e un caso di frattura della corticale basale in assenza di formazione di nuovo osso. L'incremento medio di osso in verticalità è stato di 13,6 mm (12-15). 4 impianti su 32 (12.5%) sono andati persi dopo il periodo di follow-up. Il riassorbimento medio peri-implantare, è stato di 2,5 mm. Conclusioni: Le soluzioni più utilizzate per superare il deficit di verticalità del limbo libero di fibula consistono nell'allestimento del lembo libero di cresta iliaca, nel posizionare la fibula in posizione ideale da un punto di vista protesico a discapito del profilo osseo basale, l'utilizzo del lembo di fibula nella versione descritta come "double barrel", nella distrazione osteogenetica della fibula. La nostra esperienza concerne il lembo libero di fibula che nella patologia neoplastica maligna utilizziamo nella versione "single strut", per mantenere disponibili tutte le potenzialità di lunghezza del peduncolo vascolare, senza necessità di innesti di vena. Entrambe le soluzioni, la protesi dentale ortopedica e la distrazione osteogenetica seguita da protesi, entrambe avvitate su impianti, costituiscono soluzioni soddisfacenti per la riabilitazione funzionale della fibula al di là del suo deficit di verticalità . La prima soluzione ha preso spunto dall'osservazione dei buoni risultati della protesi dentale su impianti corti, avendo un paragonabile rapporto corona/radice, la DO applicata alla fibula, sebbene sia risultata una metodica con un numero di complicazioni più elevato ed un maggior livello di riassorbimento di osso peri-implantare, costituisce in ogni caso una valida opzione riabilitativa, specialmente in caso di notevole discrepanza mandibulo/fibulare. Decisiva è la scelta del percorso terapeutico dopo una accurata valutazione di ogni singolo caso. Vengono illustrati i criteri di selezione provenienti dalla nostra esperienza.
Resumo:
Il presente studio, per ciò che concerne la prima parte della ricerca, si propone di fornire un’analisi che ripercorra il pensiero teorico e la pratica critica di Louis Marin, mettendone in rilievo i caratteri salienti affinché si possa verificare se, nella loro eterogenea interdisciplinarità, non emerga un profilo unitario che consenta di ricomprenderli in un qualche paradigma estetico moderno e/o contemporaneo. Va innanzitutto rilevato che la formazione intellettuale di Marin è avvenuta nell’alveo di quel montante e pervasivo interesse che lo strutturalismo di stampo linguistico seppe suscitare nelle scienze sociali degli anni sessanta. Si è cercato, allora, prima di misurare la distanza che separa l’approccio di Marin ai testi da quello praticato dalla semiotica greimasiana, impostasi in Francia come modello dominante di quella svolta semiotica che ha interessato in quegli anni diverse discipline: dagli studi estetici all’antropologia, dalla psicanalisi alla filosofia. Si è proceduto, quindi, ad un confronto tra l’apparato concettuale elaborato dalla semiotica e alcune celebri analisi del nostro autore – tratte soprattutto da Opacité de la peinture e De la représentation. Seppure Marin non abbia mai articolato sistematicametne i principi teorici che esplicitassero la sua decisa contrapposizione al potente modello greimasiano, tuttavia le reiterate riflessioni intorno ai presupposti epistemologici del proprio modo di interpretare i testi – nonché le analisi di opere pittoriche, narrative e teoriche che ci ha lasciato in centinaia di studi – permettono di definirne una concezione estetica nettamente distinta dalla pratica semio-semantica della scuola di A. J. Greimas. Da questo confronto risulterà, piuttosto, che è il pensiero di un linguista sui generis come E. Benveniste ad avere fecondato le riflessioni di Marin il quale, d’altra parte, ha saputo rielaborare originalmente i contributi fondamentali che Benveniste diede alla costruzione della teoria dell’enunciazione linguistica. Impostando l’equazione: enunciazione linguistica=rappresentazione visiva (in senso lato), Marin diviene l’inventore del dispositivo concettuale e operativo che consentirà di analizzare l’enunciazione visiva: la superficie di rappresentazione, la cornice, lo sguardo, l’iscrizione, il gesto, lo specchio, lo schema prospettico, il trompe-l’oeil, sono solo alcune delle figure in cui Marin vede tradotto – ma in realtà immagina ex novo – quei dispositivi enunciazionali che il linguista aveva individuato alla base della parole come messa in funzione della langue. Marin ha saputo così interpretare, in modo convincente, le opere e i testi della cultura francese del XVII secolo alla quale sono dedicati buona parte dei suoi studi: dai pittori del classicismo (Poussin, Le Brun, de Champaigne, ecc.) agli eruditi della cerchia di Luigi XIV, dai filosofi (soprattutto Pascal), grammatici e logici di Port-Royal alle favole di La Fontaine e Perrault. Ma, come si evince soprattutto da testi come Opacité de la peinture, Marin risulterà anche un grande interprete del rinascimento italiano. In secondo luogo si è cercato di interpretare Le portrait du Roi, il testo forse più celebre dell’autore, sulla scorta dell’ontologia dell’immagine che Gadamer elabora nel suo Verità e metodo, non certo per praticare una riduzione acritica di due concezioni che partono da presupposti divergenti – lo strutturalismo e la critica d’arte da una parte, l’ermeneutica filosofica dall’altra – ma per rilevare che entrambi ricorrono al concetto di rappresentazione intendendolo non tanto come mimesis ma soprattutto, per usare il termine di Gadamer, come repraesentatio. Sia Gadamer che Marin concepiscono la rappresentazione non solo come sostituzione mimetica del rappresentato – cioè nella direzione univoca che dal rappresentato conduce all’immagine – ma anche come originaria duplicazione di esso, la quale conferisce al rappresentato la sua legittimazione, la sua ragione o il suo incremento d’essere. Nella rappresentazione in quanto capace di legittimare il rappresentato – di cui pure è la raffigurazione – abbiamo così rintracciato la cifra comune tra l’estetica di Marin e l’ontologia dell’immagine di Gadamer. Infine, ci è sembrato di poter ricondurre la teoria della rappresentazione di Marin all’interno del paradigma estetico elaborato da Kant nella sua terza Critica. Sebbene manchino in Marin espliciti riferimenti in tal senso, la sua teoria della rappresentazione – in quanto dire che mostra se stesso nel momento in cui dice qualcos’altro – può essere intesa come una riflessione estetica che trova nel sensibile la sua condizione trascendentale di significazione. In particolare, le riflessioni kantiane sul sentimento di sublime – a cui abbiamo dedicato una lunga disamina – ci sono sembrate chiarificatrici della dinamica a cui è sottoposta la relazione tra rappresentazione e rappresentato nella concezione di Marin. L’assolutamente grande e potente come tratti distintivi del sublime discusso da Kant, sono stati da noi considerati solo nella misura in cui ci permettevano di fare emergere la rappresentazione della grandezza e del potere assoluto del monarca (Luigi XIV) come potere conferitogli da una rappresentazione estetico-politica costruita ad arte. Ma sono piuttosto le facoltà in gioco nella nostra più comune esperienza delle grandezze, e che il sublime matematico mette esemplarmente in mostra – la valutazione estetica e l’immaginazione – ad averci fornito la chiave interpretativa per comprendere ciò che Marin ripete in più luoghi citando Pascal: una città, da lontano, è una città ma appena mi avvicino sono case, alberi, erba, insetti, ecc… Così abbiamo applicato i concetti emersi nella discussione sul sublime al rapporto tra la rappresentazione e il visibile rappresentato: rapporto che non smette, per Marin, di riconfigurarsi sempre di nuovo. Nella seconda parte della tesi, quella dedicata all’opera di Bernard Stiegler, il problema della comprensione delle immagini è stato affrontato solo dopo aver posto e discusso la tesi che la tecnica, lungi dall’essere un portato accidentale e sussidiario dell’uomo – solitamente supposto anche da chi ne riconosce la pervasività e ne coglie il cogente condizionamento – deve invece essere compresa proprio come la condizione costitutiva della sua stessa umanità. Tesi che, forse, poteva essere tematizzata in tutta la sua portata solo da un pensatore testimone delle invenzioni tecnico-tecnologiche del nostro tempo e del conseguente e radicale disorientamento a cui esse ci costringono. Per chiarire la propria concezione della tecnica, nel I volume di La technique et le temps – opera alla quale, soprattutto, sarà dedicato il nostro studio – Stiegler decide di riprendere il problema da dove lo aveva lasciato Heidegger con La questione della tecnica: se volgiamo coglierne l’essenza non è più possibile pensarla come un insieme di mezzi prodotti dalla creatività umana secondo un certi fini, cioè strumentalmente, ma come un modo di dis-velamento della verità dell’essere. Posto così il problema, e dopo aver mostrato come i sistemi tecnici tendano ad evolversi in base a tendenze loro proprie che in buona parte prescindono dall’inventività umana (qui il riferimento è ad autori come F. Gille e G. Simondon), Stiegler si impegna a riprendere e discutere i contributi di A. Leroi-Gourhan. È noto come per il paletnologo l’uomo sia cominciato dai piedi, cioè dall’assunzione della posizione eretta, la quale gli avrebbe permesso di liberare le mani prima destinate alla deambulazione e di sviluppare anatomicamente la faccia e la volta cranica quali ondizioni per l’insorgenza di quelle capacità tecniche e linguistiche che lo contraddistinguono. Dei risultati conseguiti da Leroi-Gourhan e consegnati soprattutto in Le geste et la parole, Stiegler accoglie soprattutto l’idea che l’uomo si vada definendo attraverso un processo – ancora in atto – che inizia col primo gesto di esteriorizzazione dell’esperienza umana nell’oggetto tecnico. Col che è già posta, per Stiegler, anche la prima forma di simbolizzazione e di rapporto al tempo che lo caratterizzano ancora oggi. Esteriorità e interiorità dell’uomo sono, per Stiegler, transduttive, cioè si originano ed evolvono insieme. Riprendendo, in seguito, l’anti-antropologia filosofica sviluppata da Heidegger nell’analitica esistenziale di Essere e tempo, Stiegler dimostra che, se si vuole cogliere l’effettività della condizione dell’esistenza umana, è necessaria un’analisi degli oggetti tecnici che però Heidegger relega nella sfera dell’intramondano e dunque esclude dalla temporalità autentica dell’esser-ci. Se è vero che l’uomo – o il chi, come lo chiama Stiegler per distinguerlo dal che-cosa tecnico – trova nell’essere-nel-mondo la sua prima e più fattiva possibilità d’essere, è altrettanto verò che questo mondo ereditato da altri è già strutturato tecnicamente, è già saturo della temporalità depositata nelle protesi tecniche nelle quali l’uomo si esteriorizza, e nelle quali soltanto, quindi, può trovare quelle possibilità im-proprie e condivise (perché tramandate e impersonali) a partire dalle quali poter progettare la propria individuazione nel tempo. Nel percorso di lettura che abbiamo seguito per il II e III volume de La technique et le temps, l’autore è impegnato innanzitutto in una polemica serrata con le analisi fenomenologiche che Husserl sviluppa intorno alla coscienza interna del tempo. Questa fenomenologia del tempo, prendendo ad esame un oggetto temporale – ad esempio una melodia – giunge ad opporre ricordo primario (ritenzione) e ricordo secondario (rimemorazione) sulla base dell’apporto percettivo e immaginativo della coscienza nella costituzione del fenomeno temporale. In questo modo Husserl si preclude la possibilità di cogliere il contributo che l’oggetto tecnico – ad esempio la registrazione analogica di una melodia – dà alla costituzione del flusso temporale. Anzi, Husserl esclude esplicitamente che una qualsiasi coscienza d’immagine – termine al quale Stiegler fa corrispondere quello di ricordo terziario: un testo scritto, una registrazione, un’immagine, un’opera, un qualsiasi supporto memonico trascendente la coscienza – possa rientrare nella dimensione origianaria e costitutiva di tempo. In essa può trovar posto solo la coscienza con i suo vissuti temporali percepiti, ritenuti o ricordati (rimemorati). Dopo un’attenta rilettura del testo husserliano, abbiamo seguito Stiegler passo a passo nel percorso di legittimazione dell’oggetto tecnico quale condizione costitutiva dell’esperienza temporale, mostrando come le tecniche di registrazione analogica di un oggetto temporale modifichino, in tutta evidenza, il flusso ritentivo della coscienza – che Husserl aveva supposto automatico e necessitante – e con ciò regolino, conseguente, la reciproca permeabilità tra ricordo primario e secondario. L’interpretazione tecnica di alcuni oggetti temporali – una foto, la sequenza di un film – e delle possibilità dispiegate da alcuni dispositivi tecnologici – la programmazione e la diffusione audiovisiva in diretta, l’immagine analogico-digitale – concludono questo lavoro richiamando l’attenzione sia sull’evidenza prodotta da tali esperienze – evidenza tutta tecnica e trascendente la coscienza – sia sul sapere tecnico dell’uomo quale condizione – trascendentale e fattuale al tempo stesso – per la comprensione delle immagini e di ogni oggetto temporale in generale. Prendendo dunque le mosse da una riflessione, quella di Marin, che si muove all’interno di una sostanziale antropologia filosofica preoccupata di reperire, nell’uomo, le condizioni di possibilità per la comprensione delle immagini come rappresentazioni – condizione che verrà reperità nella sensibilità o nell’aisthesis dello spettatore – il presente lavoro passerà, dunque, a considerare la riflessione tecno-logica di Stiegler trovando nelle immagini in quanto oggetti tecnici esterni all’uomo – cioè nelle protesi della sua sensibilità – le condizioni di possibilità per la comprensione del suo rapporto al tempo.
Resumo:
The development of safe, high energy and power electrochemical energy-conversion systems can be a response to the worldwide demand for a clean and low-fuel-consuming transport. This thesis work, starting from a basic studies on the ionic liquid (IL) electrolytes and carbon electrodes and concluding with tests on large-size IL-based supercapacitor prototypes demonstrated that the IL-based asymmetric configuration (AEDLCs) is a powerful strategy to develop safe, high-energy supercapacitors that might compete with lithium-ion batteries in power assist-hybrid electric vehicles (HEVs). The increase of specific energy in EDLCs was achieved following three routes: i) the use of hydrophobic ionic liquids (ILs) as electrolytes; ii) the design and preparation of carbon electrode materials of tailored morphology and surface chemistry to feature high capacitance response in IL and iii) the asymmetric double-layer carbon supercapacitor configuration (AEDLC) which consists of assembling the supercapacitor with different carbon loadings at the two electrodes in order to exploit the wide electrochemical stability window (ESW) of IL and to reach high maximum cell voltage (Vmax). Among the various ILs investigated the N-methoxyethyl-N-methylpyrrolidinium bis(trifluoromethanesulfonyl)imide (PYR1(2O1)TFSI) was selected because of its hydrophobicity and high thermal stability up to 350 °C together with good conductivity and wide ESW, exploitable in a wide temperature range, below 0°C. For such exceptional properties PYR1(2O1)TFSI was used for the whole study to develop large size IL-based carbon supercapacitor prototype. This work also highlights that the use of ILs determines different chemical-physical properties at the interface electrode/electrolyte with respect to that formed by conventional electrolytes. Indeed, the absence of solvent in ILs makes the properties of the interface not mediated by the solvent and, thus, the dielectric constant and double-layer thickness strictly depend on the chemistry of the IL ions. The study of carbon electrode materials evidences several factors that have to be taken into account for designing performing carbon electrodes in IL. The heat-treatment in inert atmosphere of the activated carbon AC which gave ACT carbon featuring ca. 100 F/g in IL demonstrated the importance of surface chemistry in the capacitive response of the carbons in hydrophobic ILs. The tailored mesoporosity of the xerogel carbons is a key parameter to achieve high capacitance response. The CO2-treated xerogel carbon X3a featured a high specific capacitance of 120 F/g in PYR14TFSI, however, exhibiting high pore volume, an excess of IL is required to fill the pores with respect to that necessary for the charge-discharge process. Further advances were achieved with electrodes based on the disordered template carbon DTC7 with pore size distribution centred at 2.7 nm which featured a notably high specific capacitance of 140 F/g in PYR14TFSI and a moderate pore volume, V>1.5 nm of 0.70 cm3/g. This thesis work demonstrated that by means of the asymmetric configuration (AEDLC) it was possible to reach high cell voltage up to 3.9 V. Indeed, IL-based AEDLCs with the X3a or ACT carbon electrodes exhibited specific energy and power of ca. 30 Wh/kg and 10 kW/kg, respectively. The DTC7 carbon electrodes, featuring a capacitance response higher of 20%-40% than those of X3a and ACT, respectively, enabled the development of a PYR14TFSI-based AEDLC with specific energy and power of 47 Wh/kg and 13 kW/kg at 60°C with Vmax of 3.9 V. Given the availability of the ACT carbon (obtained from a commercial material), the PYR1(2O1)TFSI-based AEDLCs assembled with ACT carbon electrodes were selected within the EU ILHYPOS project for the development of large-size prototypes. This study demonstrated that PYR1(2O1)TFSI-based AEDLC can operate between -30°C and +60°C and its cycling stability was proved at 60°C up to 27,000 cycles with high Vmax up to 3.8 V. Such AEDLC was further investigated following USABC and DOE FreedomCAR reference protocols for HEV to evaluate its dynamic pulse-power and energy features. It was demonstrated that with Vmax of 3.7 V at T> 30 °C the challenging energy and power targets stated by DOE for power-assist HEVs, and at T> 0 °C the standards for the 12V-TSS and 42V-FSS and TPA 2s-pulse applications are satisfied, if the ratio wmodule/wSC = 2 is accomplished, which, however, is a very demanding condition. Finally, suggestions for further advances in IL-based AEDLC performance were found. Particularly, given that the main contribution to the ESR is the electrode charging resistance, which in turn is affected by the ionic resistance in the pores that is also modulated by pore length, the pore geometry is a key parameter in carbon design not only because it defines the carbon surface but also because it can differentially “amplify” the effect of IL conductivity on the electrode charging-discharging process and, thus, supercapacitor time constant.