961 resultados para production on demand


Relevância:

80.00% 80.00%

Publicador:

Resumo:

Il termine cloud ha origine dal mondo delle telecomunicazioni quando i provider iniziarono ad utilizzare servizi basati su reti virtuali private (VPN) per la comunicazione dei dati. Il cloud computing ha a che fare con la computazione, il software, l’accesso ai dati e servizi di memorizzazione in modo tale che l’utente finale non abbia idea della posizione fisica dei dati e la configurazione del sistema in cui risiedono. Il cloud computing è un recente trend nel mondo IT che muove la computazione e i dati lontano dai desktop e dai pc portatili portandoli in larghi data centers. La definizione di cloud computing data dal NIST dice che il cloud computing è un modello che permette accesso di rete on-demand a un pool condiviso di risorse computazionali che può essere rapidamente utilizzato e rilasciato con sforzo di gestione ed interazione con il provider del servizio minimi. Con la proliferazione a larga scala di Internet nel mondo le applicazioni ora possono essere distribuite come servizi tramite Internet; come risultato, i costi complessivi di questi servizi vengono abbattuti. L’obbiettivo principale del cloud computing è utilizzare meglio risorse distribuite, combinarle assieme per raggiungere un throughput più elevato e risolvere problemi di computazione su larga scala. Le aziende che si appoggiano ai servizi cloud risparmiano su costi di infrastruttura e mantenimento di risorse computazionali poichè trasferiscono questo aspetto al provider; in questo modo le aziende si possono occupare esclusivamente del business di loro interesse. Mano a mano che il cloud computing diventa più popolare, vengono esposte preoccupazioni riguardo i problemi di sicurezza introdotti con l’utilizzo di questo nuovo modello. Le caratteristiche di questo nuovo modello di deployment differiscono ampiamente da quelle delle architetture tradizionali, e i meccanismi di sicurezza tradizionali risultano inefficienti o inutili. Il cloud computing offre molti benefici ma è anche più vulnerabile a minacce. Ci sono molte sfide e rischi nel cloud computing che aumentano la minaccia della compromissione dei dati. Queste preoccupazioni rendono le aziende restie dall’adoperare soluzioni di cloud computing, rallentandone la diffusione. Negli anni recenti molti sforzi sono andati nella ricerca sulla sicurezza degli ambienti cloud, sulla classificazione delle minacce e sull’analisi di rischio; purtroppo i problemi del cloud sono di vario livello e non esiste una soluzione univoca. Dopo aver presentato una breve introduzione sul cloud computing in generale, l’obiettivo di questo elaborato è quello di fornire una panoramica sulle vulnerabilità principali del modello cloud in base alle sue caratteristiche, per poi effettuare una analisi di rischio dal punto di vista del cliente riguardo l’utilizzo del cloud. In questo modo valutando i rischi e le opportunità un cliente deve decidere se adottare una soluzione di tipo cloud. Alla fine verrà presentato un framework che mira a risolvere un particolare problema, quello del traffico malevolo sulla rete cloud. L’elaborato è strutturato nel modo seguente: nel primo capitolo verrà data una panoramica del cloud computing, evidenziandone caratteristiche, architettura, modelli di servizio, modelli di deployment ed eventuali problemi riguardo il cloud. Nel secondo capitolo verrà data una introduzione alla sicurezza in ambito informatico per poi passare nello specifico alla sicurezza nel modello di cloud computing. Verranno considerate le vulnerabilità derivanti dalle tecnologie e dalle caratteristiche che enucleano il cloud, per poi passare ad una analisi dei rischi. I rischi sono di diversa natura, da quelli prettamente tecnologici a quelli derivanti da questioni legali o amministrative, fino a quelli non specifici al cloud ma che lo riguardano comunque. Per ogni rischio verranno elencati i beni afflitti in caso di attacco e verrà espresso un livello di rischio che va dal basso fino al molto alto. Ogni rischio dovrà essere messo in conto con le opportunità che l’aspetto da cui quel rischio nasce offre. Nell’ultimo capitolo verrà illustrato un framework per la protezione della rete interna del cloud, installando un Intrusion Detection System con pattern recognition e anomaly detection.

Relevância:

80.00% 80.00%

Publicador:

Resumo:

Il tema dei prodotti agroalimentari di qualità ha ormai assunto un ruolo rilevante all’interno del dibattito riguardante l’agricoltura e l’economia agroalimentare, ponendosi al centro dell’interesse delle politiche europee (PAC post 2013, Pacchetto Qualità). La crescente attenzione verso le produzioni con marchio Dop\Igp mette però in luce la sostanziale carenza di informazioni dettagliate relativamente alle aziende che operano in questo comparto. Da questo punto di vista il VI° Censimento generale dell’agricoltura costituisce una preziosa fonte di informazioni statistiche. L’obiettivo di questo lavoro è quello di utilizzare i dati, ancora provvisori, del censimento per analizzare la struttura delle aziende con produzioni di qualità, ponendola in confronto con quella delle aziende convenzionali. Inoltre è stata fatta una classificazione delle aziende con prodotti Dop\Igp, in base alla rilevanza di queste produzioni sul reddito lordo aziendale. Le aziende sono quindi state classificate come “Specializzate” e “Miste”, con un’ulteriore distinzione di queste ultime tra quelle “Prevalentemente Dop\Igp” e quelle “Prevalentemente non Dop\Igp”. Tale ripartizione ha consentito una definizione dettagliata degli orientamenti produttivi delle aziende analizzate.

Relevância:

80.00% 80.00%

Publicador:

Resumo:

In dieser Arbeit werden Strukturen beschrieben, die mit Polymeren auf Oberflächen erzeugt wurden. Die Anwendungen reichen von PMMA und PNIPAM Polymerbürsten, über die Restrukturierung von Polystyrol durch Lösemittel bis zu 3D-Strukturen, die aus PAH/ PSS Polyelektrolytmultischichten bestehen. Im ersten Teil werden Polymethylmethacrylat (PMMA) Bürsten in der ionischen Flüssigkeit 1-Butyl-3-Methylimidazolium Hexafluorophospat ([Bmim][PF6]) durch kontrollierte radikalische Polymerisation (ATRP) hergestellt. Kinetische Untersuchungen zeigten ein lineares und dichtes Bürstenwachstum mit einer Wachstumsrate von 4600 g/mol pro nm. Die durchschnittliche Pfropfdichte betrug 0.36 µmol/m2. Als Anwendung wurden Mikrotropfen bestehend aus der ionischen Flüssigkeit, Dimethylformamid und dem ATRP-Katalysator benutzt, um in einer definierten Geometrie Polymerbürsten auf Silizium aufzubringen. Auf diese Weise lässt sich eine bis zu 13 nm dicke Beschichtung erzeugen. Dieses Konzept ist durch die Verdampfung des Monomers Methylmethacrylat (MMA) limitiert. Aus einem 1 µl großen Tropfen aus ionischer Flüssigkeit und MMA (1:1) verdampft MMA innerhalb von 100 s. Daher wurde das Monomer sequentiell zugegeben. Der zweite Teil konzentriert sich auf die Strukturierung von Oberflächen mit Hilfe einer neuen Methode: Tintendruck. Ein piezoelektrisch betriebenes „Drop-on-Demand“ Drucksystem wurde verwendet, um Polystyrol mit 0,4 nl Tropfen aus Toluol zu strukturieren. Die auf diese Art und Weise gebildeten Mikrokrater können Anwendung als Mikrolinsen finden. Die Brennweite der Mikrolinsen kann über die Anzahl an Tropfen, die für die Strukturierung verwendet werden, eingestellt werden. Theoretisch und experimentell wurde die Brennweite im Bereich von 4,5 mm bis 0,21 mm ermittelt. Der zweite Strukturierungsprozess nutzt die Polyelektrolyte Polyvinylamin-Hydrochlorid (PAH) und Polystyrolsulfonat (PSS), um 3D-Strukturen wie z.B. Linien, Schachbretter, Ringe, Stapel mit einer Schicht für Schicht Methode herzustellen. Die Schichtdicke für eine Doppelschicht (DS) liegt im Bereich von 0.6 bis 1.1 nm, wenn NaCl als Elektrolyt mit einer Konzentration von 0,5 mol/l eingesetzt wird. Die Breite der Strukturen beträgt im Mittel 230 µm. Der Prozess wurde erweitert, um Nanomechanische Cantilever Sensoren (NCS) zu beschichten. Auf einem Array bestehend aus acht Cantilevern wurden je zwei Cantilever mit fünf Doppelschichten PAH/ PSS und je zwei Cantilever mit zehn Doppelschichten PAH/ PSS schnell und reproduzierbar beschichtet. Die Massenänderung für die individuellen Cantilever war 0,55 ng für fünf Doppelschichten und 1,08 ng für zehn Doppelschichten. Der daraus resultierende Sensor wurde einer Umgebung mit definierter Luftfeuchtigkeit ausgesetzt. Die Cantilever verbiegen sich durch die Ausdehnung der Beschichtung, da Wasser in das Polymer diffundiert. Eine maximale Verbiegung von 442 nm bei 80% Luftfeuchtigkeit wurde für die mit zehn Doppelschichten beschichteten Cantilever gefunden. Dies entspricht einer Wasseraufnahme von 35%. Zusätzlich konnte aus den Verbiegungsdaten geschlossen werden, dass die Elastizität der Polyelektrolytmultischichten zunimmt, wenn das Polymer gequollen ist. Das thermische Verhalten in Wasser wurde im nächsten Teil an nanomechanischen Cantilever Sensoren, die mit Poly(N-isopropylacrylamid)bürsten (PNIPAM) und plasmapolymerisiertem N,N-Diethylacrylamid beschichtet waren, untersucht. Die Verbiegung des Cantilevers zeigte zwei Bereiche: Bei Temperaturen kleiner der niedrigsten kritischen Temperatur (LCST) ist die Verbiegung durch die Dehydration der Polymerschicht dominiert und bei Temperaturen größer der niedrigsten kritischen Temperatur (LCST) reagiert der Cantilever Sensor überwiegend auf Relaxationsprozesse innerhalb der kollabierten Polymerschicht. Es wurde gefunden, dass das Minimum in der differentiellen Verbiegung mit der niedrigsten kritischen Temperatur von 32°C und 44°C der ausgewählten Polymeren übereinstimmt. Im letzten Teil der Arbeit wurden µ-Reflektivitäts- und µ-GISAXS Experimente eingeführt als neue Methoden, um mikrostrukturierte Proben wie NCS oder PEM Linien mit Röntgenstreuung zu untersuchen. Die Dicke von jedem individuell mit PMMA Bürsten beschichtetem NCS ist im Bereich von 32,9 bis 35,2 nm, was mit Hilfe von µ-Reflektivitätsmessungen bestimmt wurde. Dieses Ergebnis kann mit abbildender Ellipsometrie als komplementäre Methode mit einer maximalen Abweichung von 7% bestätigt werden. Als zweites Beispiel wurde eine gedruckte Polyelektrolytmultischicht aus PAH/PSS untersucht. Die Herstellungsprozedur wurde so modifiziert, dass Goldnanopartikel in die Schichtstruktur eingebracht wurden. Durch Auswertung eines µ-GISAXS Experiments konnte der Einbau der Partikel identifiziert werden. Durch eine Anpassung mit einem Unified Fit Modell wurde herausgefunden, dass die Partikel nicht agglomeriert sind und von einer Polymermatrix umgeben sind.

Relevância:

80.00% 80.00%

Publicador:

Resumo:

La chemioembolizzazione (TACE) è uno dei trattamenti locoregionali più largamente utilizzati nel trattamento dell’epatocarcinoma (HCC). A tutt’oggi però rimangono irrisolte alcune importanti controversie sul suo impiego. Nella presente tesi sono stati analizzati alcuni dei principali oggetti di dibattito quali (1) indicazione al trattamento, (2) trattamenti multipli e schema di ritrattamento e (3) trattamento dei pazienti candidabili a trapianto di fegato. A tal fine sono stati riportati tre studi che hanno analizzato gli argomenti sopradescritti. La TACE viene comunemente eseguita nei pazienti al di fuori delle raccomandazioni delle linee guida tra cui i pazienti con nodulo singolo, i pazienti con trombosi portale e con performance status (PS) compromesso. Dallo studio 1 è emerso che la TACE può essere considerata una valida opzione terapeutica nei pazienti con HCC singolo non candidabili a trattamenti curativi, che la trombosi portale non neoplastica ed una lieve compromissione del performance status (PS-1) verosimilmente legata alla cirrosi non hanno impatto sulla sopravvivenza post-trattamento. Multipli trattamenti di chemioembolizzazione vengono frequentemente eseguiti ma non esiste a tutt’oggi un numero ottimale di ritrattamenti TACE. Dallo studio 2 è emerso che il trattamento TACE eseguito “on demand” può essere efficacemente ripetuto nei pazienti che non abbiano scompenso funzionale e non siano candidabili a trattamenti curativi anche se solo una piccola percentuale di pazienti selezionati può essere sottoposto a più cicli di trattamento. La TACE è frequentemente impiegata nei pazienti in lista per trapianto di fegato ma non c’è evidenza dell’efficacia di trattamenti ripetuti in questi pazienti. Dallo studio 3 è emerso che il numero di TACE non è significativamente associato né alla necrosi tumorale, né alla recidiva né alla sopravvivenza post-trapianto. Un tempo d’attesa prima del trapianto ≤6 mesi è invece risultato essere fattore predittivo indipendente di recidiva riflettendo la possibile maggiore aggressività tumorale in questa classe di pazienti.

Relevância:

80.00% 80.00%

Publicador:

Resumo:

La ricerca prende in esame le produzioni narrative, in particolare quelle dedicate agli adolescenti e ai giovani adulti, nei cui linguaggi e nelle cui trame si insinuano modelli di vita, comportamenti, valori, stereotipie, ecc. Attraverso le fiction dell'ultimo decennio, sono offerte interpretazioni alle costanti e alle variabili che percorrono i diversi prodotti culturali e che sono metafore di caratteristiche e di dinamiche della società post-moderna. Nella ricerca si studiano le trame e i personaggi delle narrazioni e, in parallelo, si individuano le correlazioni con studi pedagogici interessati alle ultime generazioni giovanili. La comparazione ha portato ad un sistema di decifrazione per individuare il giovane dell'era post-moderna tra gli elementi di finzione. Si sono prese in esame le più importanti icone dell'immaginario che, pur attraverso innumerevoli riscritture, continuano ad imporsi come metafore per identificazione, abnegazione, catarsi. Rispetto al passato, molte icone presenti nelle ultime produzioni di fiction subiscono alterazioni leggibili come spie (i.e. Ginzburg). È in queste trasformazioni, spinte fino alla metamorfosi dell'icona, che è possibile rintracciare alcune caratteristiche proprie del mondo giovanile in rapporto con la società contemporanea. L'immaginario può dunque essere lo specchio in cui l'uomo e la società possono riconoscersi, e studiarlo apre possibilità per sviluppare prospettive di interpretazione verso nuovi orizzonti.

Relevância:

80.00% 80.00%

Publicador:

Resumo:

Chapter 1 studies how consumers’ switching costs affect the pricing and profits of firms competing in two-sided markets such as Apple and Google in the smartphone market. When two-sided markets are dynamic – rather than merely static – I show that switching costs lower the first-period price if network externalities are strong, which is in contrast to what has been found in one-sided markets. By contrast, switching costs soften price competition in the initial period if network externalities are weak and consumers are more patient than the platforms. Moreover, an increase in switching costs on one side decreases the first-period price on the other side. Chapter 2 examines firms’ incentives to invest in local and flexible resources when demand is uncertain and correlated. I find that market power of the monopolist providing flexible resources distorts investment incentives, while competition mitigates them. The extent of improvement depends critically on demand correlation and the cost of capacity: under social optimum and monopoly, if the flexible resource is cheap, the relationship between investment and correlation is positive, and if it is costly, the relationship becomes negative; under duopoly, the relationship is positive. The analysis also sheds light on some policy discussions in markets such as cloud computing. Chapter 3 develops a theory of sequential investments in cybersecurity. The regulator can use safety standards and liability rules to increase security. I show that the joint use of an optimal standard and a full liability rule leads to underinvestment ex ante and overinvestment ex post. Instead, switching to a partial liability rule can correct the inefficiencies. This suggests that to improve security, the regulator should encourage not only firms, but also consumers to invest in security.

Relevância:

80.00% 80.00%

Publicador:

Resumo:

Sulfate aerosol plays an important but uncertain role in cloud formation and radiative forcing of the climate, and is also important for acid deposition and human health. The oxidation of SO2 to sulfate is a key reaction in determining the impact of sulfate in the environment through its effect on aerosol size distribution and composition. This thesis presents a laboratory investigation of sulfur isotope fractionation during SO2 oxidation by the most important gas-phase and heterogeneous pathways occurring in the atmosphere. The fractionation factors are then used to examine the role of sulfate formation in cloud processing of aerosol particles during the HCCT campaign in Thuringia, central Germany. The fractionation factor for the oxidation of SO2 by ·OH radicals was measured by reacting SO2 gas, with a known initial isotopic composition, with ·OH radicals generated from the photolysis of water at -25, 0, 19 and 40°C (Chapter 2). The product sulfate and the residual SO2 were collected as BaSO4 and the sulfur isotopic compositions measured with the Cameca NanoSIMS 50. The measured fractionation factor for 34S/32S during gas phase oxidation is αOH = (1.0089 ± 0.0007) − ((4 ± 5) × 10−5 )T (°C). Fractionation during oxidation by major aqueous pathways was measured by bubbling the SO2 gas through a solution of H2 O2

Relevância:

80.00% 80.00%

Publicador:

Resumo:

Die Dissertationsschrift beschäftigt sich mit der Entwicklung und Anwendung einer alternativen Probenzuführungstechnik für flüssige Proben in der Massenspektrometrie. Obwohl bereits einige Anstrengungen zur Verbesserung unternommen wurden, weisen konventionelle pneumatische Zerstäuber- und Sprühkammersysteme, die in der Elementspurenanalytik mittels induktiv gekoppeltem Plasma (ICP) standardmäßig verwendet werden, eine geringe Gesamteffizienz auf. Pneumatisch erzeugtes Aerosol ist durch eine breite Tropfengrößenverteilung gekennzeichnet, was den Einsatz einer Sprühkammer bedingt, um die Aerosolcharakteristik an die Betriebsbedingungen des ICPs anzupassen.. Die Erzeugung von Tropfen mit einer sehr engen Tropfengrößenverteilung oder sogar monodispersen Tropfen könnte die Effizienz des Probeneintrags verbessern. Ein Ziel dieser Arbeit ist daher, Tropfen, die mittels des thermischen Tintenstrahldruckverfahrens erzeugt werden, zum Probeneintrag in der Elementmassenspektrometrie einzusetzen. Das thermische Tintenstrahldruckverfahren konnte in der analytischen Chemie im Bereich der Oberflächenanalytik mittels TXRF oder Laserablation bisher zur gezielten, reproduzierbaren Deposition von Tropfen auf Oberflächen eingesetzt werden. Um eine kontinuierliche Tropfenerzeugung zu ermöglichen, wurde ein elektronischer Mikrokontroller entwickelt, der eine Dosiereinheit unabhängig von der Hard- und Software des Druckers steuern kann. Dabei sind alle zur Tropfenerzeugung relevanten Parameter (Frequenz, Heizpulsenergie) unabhängig voneinander einstellbar. Die Dosiereinheit, der "drop-on-demand" Aerosolgenerator (DOD), wurde auf eine Aerosoltransportkammer montiert, welche die erzeugten Tropfen in die Ionisationsquelle befördert. Im Bereich der anorganischen Spurenanalytik konnten durch die Kombination des DOD mit einem automatischen Probengeber 53 Elemente untersucht und die erzielbare Empfindlichkeiten sowie exemplarisch für 15 Elemente die Nachweisgrenzen und die Untergrundäquivalentkonzentrationen ermittelt werden. Damit die Vorteile komfortabel genutzt werden können, wurde eine Kopplung des DOD-Systems mit der miniaturisierten Fließinjektionsanalyse (FIA) sowie miniaturisierten Trenntechniken wie der µHPLC entwickelt. Die Fließinjektionsmethode wurde mit einem zertifizierten Referenzmaterial validiert, wobei für Vanadium und Cadmium die zertifizierten Werte gut reproduziert werden konnten. Transiente Signale konnten bei der Kopplung des Dosiersystems in Verbindung mit der ICP-MS an eine µHPLC abgebildet werden. Die Modifikation der Dosiereinheit zum Ankoppeln an einen kontinuierlichen Probenfluss bedarf noch einer weiteren Reduzierung des verbleibenden Totvolumens. Dazu ist die Unabhängigkeit von den bisher verwendeten, kommerziell erhältlichen Druckerpatronen anzustreben, indem die Dosiereinheit selbst gefertigt wird. Die Vielseitigkeit des Dosiersystems wurde mit der Kopplung an eine kürzlich neu entwickelte Atmosphärendruck-Ionisationsmethode, die "flowing atmospheric-pressure afterglow" Desorptions/Ionisations Ionenquelle (FAPA), aufgezeigt. Ein direkter Eintrag von flüssigen Proben in diese Quelle war bislang nicht möglich, es konnte lediglich eine Desorption von eingetrockneten Rückständen oder direkt von der Flüssigkeitsoberfläche erfolgen. Die Präzision der Analyse ist dabei durch die variable Probenposition eingeschränkt. Mit dem Einsatz des DOD-Systems können flüssige Proben nun direkt in die FAPA eingetragen, was ebenfalls das Kalibrieren bei quantitativen Analysen organischer Verbindungen ermöglicht. Neben illegalen Drogen und deren Metaboliten konnten auch frei verkäufliche Medikamente und ein Sprengstoffanalogon in entsprechend präpariertem reinem Lösungsmittel nachgewiesen werden. Ebenso gelang dies in Urinproben, die mit Drogen und Drogenmetaboliten versetzt wurden. Dabei ist hervorzuheben, dass keinerlei Probenvorbereitung notwendig war und zur Ermittlung der NWG der einzelnen Spezies keine interne oder isotopenmarkierte Standards verwendet wurden. Dennoch sind die ermittelten NWG deutlich niedriger, als die mit der bisherigen Prozedur zur Analyse flüssiger Proben erreichbaren. Um im Vergleich zu der bisher verwendeten "pin-to-plate" Geometrie der FAPA die Lösungsmittelverdampfung zu beschleunigen, wurde eine alternative Elektrodenanordnung entwickelt, bei der die Probe länger in Kontakt mit der "afterglow"-Zone steht. Diese Glimmentladungsquelle ist ringförmig und erlaubt einen Probeneintrag mittels eines zentralen Gasflusses. Wegen der ringförmigen Entladung wird der Name "halo-FAPA" (h-FAPA) für diese Entladungsgeometrie verwendet. Eine grundlegende physikalische und spektroskopische Charakterisierung zeigte, dass es sich tatsächlich um eine FAPA Desorptions/Ionisationsquelle handelt.

Relevância:

80.00% 80.00%

Publicador:

Resumo:

The cannabinoid type 1 (CB1) receptor is involved in a plethora of physiological functions and heterogeneously expressed on different neuronal populations. Several conditional loss-of-function studies revealed distinct effects of CB1 receptor signaling on glutamatergic and GABAergic neurons, respectively. To gain a comprehensive picture of CB1 receptor-mediated effects, the present study aimed at developing a gain-of-function approach, which complements conditional loss-of-function studies. Therefore, adeno-associated virus (AAV)-mediated gene delivery and Cre-mediated recombination were combined to recreate an innovative method, which ensures region- and cell type-specific transgene expression in the brain. This method was used to overexpress the CB1 receptor in glutamatergic pyramidal neurons of the mouse hippocampus. Enhanced CB1 receptor activity at glutamatergic terminals caused impairment in hippocampus-dependent memory performance. On the other hand, elevated CB1 receptor levels provoked an increased protection against kainic acid-induced seizures and against excitotoxic neuronal cell death. This finding indicates the protective role of CB1 receptor on hippocampal glutamatergic terminals as a molecular stout guard in controlling excessive neuronal network activity. Hence, CB1 receptor on glutamatergic hippocampal neurons may represent a target for novel agents to restrain excitotoxic events and to treat neurodegenerative diseases. Endocannabinoid synthesizing and degrading enzymes tightly regulate endocannabinoid signaling, and thus, represent a promising therapeutic target. To further elucidate the precise function of the 2-AG degrading enzyme monoacylglycerol lipase (MAGL), MAGL was overexpressed specifically in hippocampal pyramidal neurons. This genetic modification resulted in highly increased MAGL activity accompanied by a 50 % decrease in 2-AG levels without affecting the content of arachidonic acid and anandamide. Elevated MAGL protein levels at glutamatergic terminals eliminated depolarization-induced suppression of excitation (DSE), while depolarization-induced suppression of inhibition (DSI) was unchanged. This result indicates that the on-demand availability of the endocannabinoid 2-AG is crucial for short-term plasticity at glutamatergic synapses in the hippocampus. Mice overexpressing MAGL exhibited elevated corticosterone levels under basal conditions and an increase in anxiety-like behavior, but surprisingly, showed no changes in aversive memory formation and in seizure susceptibility. This finding suggests that 2 AG-mediated hippocampal DSE is essential for adapting to aversive situations, but is not required to form aversive memory and to protect against kainic acid-induced seizures. Thus, specific inhibition of MAGL expressed in hippocampal pyramidal neurons may represent a potential treatment strategy for anxiety and stress disorders. Finally, the method of AAV-mediated cell type-specific transgene expression was advanced to allow drug-inducible and reversible transgene expression. Therefore, elements of the tetracycline-controlled gene expression system were incorporated in our “conditional” AAV vector. This approach showed that transgene expression is switched on after drug application and that background activity in the uninduced state was only detectable in scattered cells of the hippocampus. Thus, this AAV vector will proof useful for future research applications and gene therapy approaches.

Relevância:

80.00% 80.00%

Publicador:

Resumo:

Cloud services are becoming ever more important for everyone's life. Cloud storage? Web mails? Yes, we don't need to be working in big IT companies to be surrounded by cloud services. Another thing that's growing in importance, or at least that should be considered ever more important, is the concept of privacy. The more we rely on services of which we know close to nothing about, the more we should be worried about our privacy. In this work, I will analyze a prototype software based on a peer to peer architecture for the offering of cloud services, to see if it's possible to make it completely anonymous, meaning that not only the users using it will be anonymous, but also the Peers composing it will not know the real identity of each others. To make it possible, I will make use of anonymizing networks like Tor. I will start by studying the state of art of Cloud Computing, by looking at some real example, followed by analyzing the architecture of the prototype, trying to expose the differences between its distributed nature and the somehow centralized solutions offered by the famous vendors. After that, I will get as deep as possible into the working principle of the anonymizing networks, because they are not something that can just be 'applied' mindlessly. Some de-anonymizing techniques are very subtle so things must be studied carefully. I will then implement the required changes, and test the new anonymized prototype to see how its performances differ from those of the standard one. The prototype will be run on many machines, orchestrated by a tester script that will automatically start, stop and do all the required API calls. As to where to find all these machines, I will make use of Amazon EC2 cloud services and their on-demand instances.

Relevância:

80.00% 80.00%

Publicador:

Resumo:

La nostra sfida è stata sviluppare un dispositivo che potesse riunire differenti funzionalità, dalla telepresenza alla visione dei dati on demand, e fosse in grado di portare innovazione nel panorama attuale. Abbiamo quindi deciso di creare un device che potesse svolgere attività d’ispezione e monitoraggio, concentrandoci nel corso dell’implementazione su alcuni possibili campi di utilizzo. Il sistema che abbiamo realizzato è open-source, modulare e dinamico, in grado di rispondere a esigenze diverse e facilmente riadattabile. Il prototipo progettato è in grado di comunicare con uno smartphone, grazie al quale viene guidato dall’utente primario, e di trasmettere in rete i dati rilevati dai diversi sensori integrati. Le informazioni generate sono gestibili attraverso una piattaforma online: il device utilizza il Cloud per storicizzare i dati, rendendoli potenzialmente accessibili a chiunque. Per la configurazione hardware abbiamo usato la kit-board Pi2Go e la piattaforma Raspberry Pi, alle quali abbiamo unito una videocamera e alcuni sensori di prossimità, temperatura e umidità e distanza. È nato così il prototipo InspectorPi, un veicolo telecomandato tramite dispositivo mobile in grado di esplorare ambienti ostili in cui vi sono difficoltà fisiche o ambientali alle quali sovvenire.

Relevância:

80.00% 80.00%

Publicador:

Resumo:

Airway epithelial cells were shown to drive the differentiation of monocytes into dendritic cells (DCs) with a suppressive phenotype. In this study, we investigated the impact of virus-induced inflammatory mediator production on the development of DCs. Monocyte differentiation into functional DCs, as reflected by the expression of CD11c, CD123, BDCA-4, and DC-SIGN and the capacity to activate T cells, was similar for respiratory syncytial virus (RSV)-infected and mock-infected BEAS-2B and A549 cells. RSV-conditioned culture media resulted in a partially mature DC phenotype, but failed to up-regulate CD80, CD83, CD86, and CCR7, and failed to release proinflammatory mediators upon Toll-like receptor (TLR) triggering. Nevertheless, these DCs were able to maintain an antiviral response by the release of Type I IFN. Collectively, these data indicate that the airway epithelium maintains an important suppressive DC phenotype under the inflammatory conditions induced by infection with RSV.