489 resultados para pilaantunut maa


Relevância:

10.00% 10.00%

Publicador:

Resumo:

Briefwechsel zwischen Max Horkheimer und Theodor W. Adorno, 1927 - 1938; 1 Brief von Theodor W. Adorno an Hans F. Redlich, 1938; 1 Brief von Max Horkheimer an United States of America General Consul in Stuttgart, 1938; 1 Brief von Rudolph Kolisch an Theodor W. Adorno, 1938; 1 Brief von Paul F. Lazarsfeld an Theodor W. Adorno, 1938; 2 Briefe von Theodor W. Adorno an Paul F. Lazarsfeld, 1938; 1 Brief von Hanna Maaß an Gretel Adorno, 1937; Briefwechsel und Beilagen zwischen Max Horkheimer, Theodor W. Adorno und Gretel Adorno, 1939 - 1940; 1 Brief (Entwurf) von Theodor W. Adorno an Robert M. Hutchins, 1940; 4 Briefe von Friedrich Pollock an Theodor W. Adorno, 1940; 2 Briefe von Margot von Mendelssohn an Theodor W. Adorno, 1940; 2 Briefe von Theodor W. Adorno an Margot von Mendelssohn, 1940; 1 Brief von Franz L. Neumann an Theodor W. Adorno, 1940; 1 Brief (Entwurf von T.W. Adorno) von Max Horkheimer an Mrs. Charles E. Mitchell, 1940; 1 Brief und Beilage von Gretel Adorno an Frederick Wild, 1939; 1 Brief von French und Co. Eifert an Gretel Adorno, 1939; 2 Briefe von Theodor W. Adorno an Herbert W. Schneider, 1939; 1 Brief von Theodor W. Adorno an Jean Wahl, 1939; 1 Brief von Max Horkheimer an Roger M. Howson von der Columbia University Library in New York, 1939;

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Sulphur isotope analyses are an important tool for the study of the natural sulphur cycle. On the northern hemisphere such studies of the atmospheric part of the cycle are practically impossible due to the high emission rate of anthropogenic sulphur. Merely in remote areas of the world such as the Antarctic 34S analyses can be used to identify the various sulphur sources (sea spray, biogenic und volcanic sources). We report here results of 34S measurements on sulphates from recent atmospheric precipitations (snow), lake waters, and salt efflorescences sampled in the Schirmacher Oasis and the Gruber Mountains, central Dronning Maud Land, East Antarctica. By plotting the delta 34S of precipitation versus % sea-spray sulphate the isotopic composition of the excess sulphate (which is probably of marine-biogenic origin) is extrapolated to be +4 per mil. Lake water sulphate and atmospheric precipitations have a comparable sulphur isotope composition (about +5 per mil). The analyzed secondary sulphates from the salt efflorescences, mainly gypsum and a few water-soluble sulphatcs (hexahydrite, epsomite, burkeite. and pickeringite), vary in their isotopic composition between about -12 and +8 per mil. This wide scatter is probably due to chemical weathering of primary sulphides having different delta 34S values in the substratum.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

El uso de aritmética de punto fijo es una opción de diseño muy extendida en sistemas con fuertes restricciones de área, consumo o rendimiento. Para producir implementaciones donde los costes se minimicen sin impactar negativamente en la precisión de los resultados debemos llevar a cabo una asignación cuidadosa de anchuras de palabra. Encontrar la combinación óptima de anchuras de palabra en coma fija para un sistema dado es un problema combinatorio NP-hard al que los diseñadores dedican entre el 25 y el 50 % del ciclo de diseño. Las plataformas hardware reconfigurables, como son las FPGAs, también se benefician de las ventajas que ofrece la aritmética de coma fija, ya que éstas compensan las frecuencias de reloj más bajas y el uso más ineficiente del hardware que hacen estas plataformas respecto a los ASICs. A medida que las FPGAs se popularizan para su uso en computación científica los diseños aumentan de tamaño y complejidad hasta llegar al punto en que no pueden ser manejados eficientemente por las técnicas actuales de modelado de señal y ruido de cuantificación y de optimización de anchura de palabra. En esta Tesis Doctoral exploramos distintos aspectos del problema de la cuantificación y presentamos nuevas metodologías para cada uno de ellos: Las técnicas basadas en extensiones de intervalos han permitido obtener modelos de propagación de señal y ruido de cuantificación muy precisos en sistemas con operaciones no lineales. Nosotros llevamos esta aproximación un paso más allá introduciendo elementos de Multi-Element Generalized Polynomial Chaos (ME-gPC) y combinándolos con una técnica moderna basada en Modified Affine Arithmetic (MAA) estadístico para así modelar sistemas que contienen estructuras de control de flujo. Nuestra metodología genera los distintos caminos de ejecución automáticamente, determina las regiones del dominio de entrada que ejercitarán cada uno de ellos y extrae los momentos estadísticos del sistema a partir de dichas soluciones parciales. Utilizamos esta técnica para estimar tanto el rango dinámico como el ruido de redondeo en sistemas con las ya mencionadas estructuras de control de flujo y mostramos la precisión de nuestra aproximación, que en determinados casos de uso con operadores no lineales llega a tener tan solo una desviación del 0.04% con respecto a los valores de referencia obtenidos mediante simulación. Un inconveniente conocido de las técnicas basadas en extensiones de intervalos es la explosión combinacional de términos a medida que el tamaño de los sistemas a estudiar crece, lo cual conlleva problemas de escalabilidad. Para afrontar este problema presen tamos una técnica de inyección de ruidos agrupados que hace grupos con las señales del sistema, introduce las fuentes de ruido para cada uno de los grupos por separado y finalmente combina los resultados de cada uno de ellos. De esta forma, el número de fuentes de ruido queda controlado en cada momento y, debido a ello, la explosión combinatoria se minimiza. También presentamos un algoritmo de particionado multi-vía destinado a minimizar la desviación de los resultados a causa de la pérdida de correlación entre términos de ruido con el objetivo de mantener los resultados tan precisos como sea posible. La presente Tesis Doctoral también aborda el desarrollo de metodologías de optimización de anchura de palabra basadas en simulaciones de Monte-Cario que se ejecuten en tiempos razonables. Para ello presentamos dos nuevas técnicas que exploran la reducción del tiempo de ejecución desde distintos ángulos: En primer lugar, el método interpolativo aplica un interpolador sencillo pero preciso para estimar la sensibilidad de cada señal, y que es usado después durante la etapa de optimización. En segundo lugar, el método incremental gira en torno al hecho de que, aunque es estrictamente necesario mantener un intervalo de confianza dado para los resultados finales de nuestra búsqueda, podemos emplear niveles de confianza más relajados, lo cual deriva en un menor número de pruebas por simulación, en las etapas iniciales de la búsqueda, cuando todavía estamos lejos de las soluciones optimizadas. Mediante estas dos aproximaciones demostramos que podemos acelerar el tiempo de ejecución de los algoritmos clásicos de búsqueda voraz en factores de hasta x240 para problemas de tamaño pequeño/mediano. Finalmente, este libro presenta HOPLITE, una infraestructura de cuantificación automatizada, flexible y modular que incluye la implementación de las técnicas anteriores y se proporciona de forma pública. Su objetivo es ofrecer a desabolladores e investigadores un entorno común para prototipar y verificar nuevas metodologías de cuantificación de forma sencilla. Describimos el flujo de trabajo, justificamos las decisiones de diseño tomadas, explicamos su API pública y hacemos una demostración paso a paso de su funcionamiento. Además mostramos, a través de un ejemplo sencillo, la forma en que conectar nuevas extensiones a la herramienta con las interfaces ya existentes para poder así expandir y mejorar las capacidades de HOPLITE. ABSTRACT Using fixed-point arithmetic is one of the most common design choices for systems where area, power or throughput are heavily constrained. In order to produce implementations where the cost is minimized without negatively impacting the accuracy of the results, a careful assignment of word-lengths is required. The problem of finding the optimal combination of fixed-point word-lengths for a given system is a combinatorial NP-hard problem to which developers devote between 25 and 50% of the design-cycle time. Reconfigurable hardware platforms such as FPGAs also benefit of the advantages of fixed-point arithmetic, as it compensates for the slower clock frequencies and less efficient area utilization of the hardware platform with respect to ASICs. As FPGAs become commonly used for scientific computation, designs constantly grow larger and more complex, up to the point where they cannot be handled efficiently by current signal and quantization noise modelling and word-length optimization methodologies. In this Ph.D. Thesis we explore different aspects of the quantization problem and we present new methodologies for each of them: The techniques based on extensions of intervals have allowed to obtain accurate models of the signal and quantization noise propagation in systems with non-linear operations. We take this approach a step further by introducing elements of MultiElement Generalized Polynomial Chaos (ME-gPC) and combining them with an stateof- the-art Statistical Modified Affine Arithmetic (MAA) based methodology in order to model systems that contain control-flow structures. Our methodology produces the different execution paths automatically, determines the regions of the input domain that will exercise them, and extracts the system statistical moments from the partial results. We use this technique to estimate both the dynamic range and the round-off noise in systems with the aforementioned control-flow structures. We show the good accuracy of our approach, which in some case studies with non-linear operators shows a 0.04 % deviation respect to the simulation-based reference values. A known drawback of the techniques based on extensions of intervals is the combinatorial explosion of terms as the size of the targeted systems grows, which leads to scalability problems. To address this issue we present a clustered noise injection technique that groups the signals in the system, introduces the noise terms in each group independently and then combines the results at the end. In this way, the number of noise sources in the system at a given time is controlled and, because of this, the combinato rial explosion is minimized. We also present a multi-way partitioning algorithm aimed at minimizing the deviation of the results due to the loss of correlation between noise terms, in order to keep the results as accurate as possible. This Ph.D. Thesis also covers the development of methodologies for word-length optimization based on Monte-Carlo simulations in reasonable times. We do so by presenting two novel techniques that explore the reduction of the execution times approaching the problem in two different ways: First, the interpolative method applies a simple but precise interpolator to estimate the sensitivity of each signal, which is later used to guide the optimization effort. Second, the incremental method revolves on the fact that, although we strictly need to guarantee a certain confidence level in the simulations for the final results of the optimization process, we can do it with more relaxed levels, which in turn implies using a considerably smaller amount of samples, in the initial stages of the process, when we are still far from the optimized solution. Through these two approaches we demonstrate that the execution time of classical greedy techniques can be accelerated by factors of up to ×240 for small/medium sized problems. Finally, this book introduces HOPLITE, an automated, flexible and modular framework for quantization that includes the implementation of the previous techniques and is provided for public access. The aim is to offer a common ground for developers and researches for prototyping and verifying new techniques for system modelling and word-length optimization easily. We describe its work flow, justifying the taken design decisions, explain its public API and we do a step-by-step demonstration of its execution. We also show, through an example, the way new extensions to the flow should be connected to the existing interfaces in order to expand and improve the capabilities of HOPLITE.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

c-Src is a nontransforming tyrosine kinase that participates in signaling events mediated by a variety of polypeptide growth factor receptors, including the epidermal growth factor receptor (EGFR). Overexpression and continual ligand stimulation of the EGFR results in morphological transformation of cells in vitro and tumor development in vivo. Elevated levels of c-Src and the EGFR are found in a variety of human malignancies, raising the question of whether c-Src can functionally cooperate with the EGFR during tumorigenesis. To address this issue, we generated c-Src/EGFR double overexpressors and compared their proliferative and biochemical characteristics to those of single overexpressors and control cells. We found that in cells expressing high levels of receptor, c-Src potentiated DNA synthesis, growth in soft agar, and tumor formation in nude mice. Growth potentiation was associated with the formation of a heterocomplex between c-Src and activated EGFR, the appearance of a distinct tyrosyl phosphorylation on the receptor, and an enhancement of receptor substrate phosphorylation. These findings indicate that c-Src is capable of potentiating receptor-mediated tumorigenesis and suggest that synergism between c-Src and the EGFR may contribute to a more aggressive phenotype in multiple human tumors.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Most of the analytical models devoted to determine the acoustic properties of a rigid perforated panel consider the acoustic impedance of a single hole and then use the porosity to determine the impedance for the whole panel. However, in the case of not homogeneous hole distribution or more complex configurations this approach is no longer valid. This work explores some of these limitations and proposes a finite element methodology that implements the linearized Navier Stokes equations in the frequency domain to analyse the acoustic performance under normal incidence of perforated panel absorbers. Some preliminary results for a homogenous perforated panel show that the sound absorption coefficient derived from the Maa analytical model does not match those from the simulations. These differences are mainly attributed to the finite geometry effect and to the spatial distribution of the perforations for the numerical case. In order to confirm these statements, the acoustic field in the vicinities of the perforations is analysed for a more complex configuration of perforated panel. Additionally, experimental studies are carried out in an impedance tube for the same configuration and then compared to previous methods. The proposed methodology is shown to be in better agreement with the laboratorial measurements than the analytical approach.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Más de 450 000 personas pasaron a través de Serbia desde que comenzó 2015 hasta mediados de noviembre. Sin embargo, en 2014 las cifras fueron ya elevadas e iban en aumento.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

The grafting of functional brushes on the surface of molecularly imprinted polymer (MIP). particles hás been explored in the last few years to synthesize materiais combining high molecular recognition capabilities and stimulation triggered by changes in the surrounding environment [1, 2]. In the present work, MIP particles for 5-fluorouracil (a drug used in câncer treatment) were produced by precipitation polymerization in acetonitrile, using either MAA or HEMA as imprinting fünctional monomers, and m the presence of different kinds of RAFT agents. In a second step, taking advantage of the RAFT groups present in the surface of the particles, different kinds of fiinctional polymer brushes were grafted on the MIPs considering a "grafting from" process in the presence of a RAFT agent.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Neste trabalho foi estudado um subproduto derivado da indústria agroalimentar produtora de sumo concentrado de maçã, conhecido por bagaço de maçã, com o objetivo de avaliar condições de extração de compostos fenólicos, o teor de compostos fenólicos totais, flavonóides e proantocianidinas e ainda a atividade antioxidante. Foram efetuadas extrações a partir do bagaço de maçã variando as condições de tempo, temperatura, razão massa:volume e solvente e os extratos obtidos avaliados quanto ao seu teor em compostos fenólicos totais pelo método FolinCiocalteu. O extrato aquoso do bagaço de maçã para uma temperatura de 100 ºC a um tempo de 2x4h e concentração de 50 mg/mL, apresentou o teor de compostos fenólicos mais elevado (9,37 mgEAG/g de bagaço de maçã, na base seca) em relação a todas as outras temperaturas, tempos de extração e solventes utilizados, como etanol (50% e 70%) e metanol. O doseamento de flavonóides totais baseou-se no método espetrofotométrico, usando o reagente cloreto de alumínio e a rutina como padrão. Os melhores resultados foram obtidos usando etanol (70%) como solvente à temperatura ambiente, cerca de 4,35 mgER/g. A amostra extraída com água apresentou valores bastante similares ao etanol, cerca de 4,27 mgER/g, usando uma temperatura de 100 ºC durante 2x4h. O conteúdo em proantocianidinas foi determinado pelo método 4-dimetilamino cinamaldeído (DMAC). O bagaço de maçã estudado demonstrou ser pobre no seu conteúdo de proantocianidinas, obtendo valores de 0,77 mgEEC/g. A atividade antioxidante do bagaço de maçã foi avaliada através de dois métodos distintos: 2,2-difenil-1-picril-hidrazilo (DPPH∙) e método do poder redutor (FRAP). O extrato aquoso obtido a 100 ºC a um tempo de 2x4h, demonstrou ser aquele com maior potencial, com uma capacidade antioxidante mais elevada que os restantes extratos, com valores de IC50 de 0,48 mg/mL e 0,65 mg/mL, para os métodos de DPPH∙ e FRAP, respetivamente.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

L’utilisation de lentilles cornéennes peut servir à améliorer le profil d’administration d’un principe actif dans les yeux. Avec une efficacité d’administration de 5% par l’utilisation de gouttes, on comprend rapidement que l’administration oculaire doit être améliorée. Cette faible administration a donné naissance à plusieurs tentatives visant à fabriquer des lentilles cornéennes médicamentées. Cependant, à cause de multiples raisons, aucune de ces tentatives n’a actuellement été mise sur le marché. Nous proposons dans cette étude, une possible amélioration des systèmes établis par le développement d’une lentille cornéenne à base de 2-(hydroxyéthyle)méthacrylate (HEMA), dans laquelle des microgels, à base de poly N-isopropylacrylamide (pNIPAM) thermosensible encapsulant un principe actif, seront incorporé. Nous avons donc débuté par développer une méthode analytique sensible par HPCL-MS/MS capable de quantifier plusieurs molécules à la fois. La méthode résultante a été validée selon les différents critères de la FDA et l’ICH en démontrant des limites de quantifications et de détections suffisamment basses, autant dans des fluides simulés que dans les tissus d’yeux de lapins. La méthode a été validée pour sept médicaments ophtalmiques : Pilocarpine, lidocaïne, proparacaïne, atropine, acétonide de triamcinolone, timolol et prednisolone. Nous avons ensuite fait la synthèse des microgels chargés négativement à base de NIPAM et d’acide méthacrylique (MAA). Nous avons encapsulé une molécule modèle dans des particules ayant une taille entre 200 et 600 nm dépendant de la composition ainsi qu’un potentiel zêta variant en fonction de la température. L’encapsulation de la rhodamine 6G (R6G) dans les microgels a été possible jusqu’à un chargement (DL%) de 38%. L’utilisation des isothermes de Langmuir a permis de montrer que l’encapsulation était principalement le résultat d’interactions électrostatiques entre les MAA et la R6G. Des cinétiques de libérations ont été effectuées à partir d’hydrogels d’acrylamide chargés en microgels encapsulant la R6G. Il a été trouvé que la libération des hydrogels chargés en microgels s’effectuait majoritairement selon l’affinité au microgel et sur une période d’environ 4-24 heures. La libération à partir de ces systèmes a été comparée à des formules d’hydrogels contenant des liposomes ou des nanogels de chitosan. Ces trois derniers (liposomes, microgels et nanogels) ont présenté des résultats prometteurs pour différentes applications avec différents profils de libérations. Enfin, nous avons transposé le modèle développé avec les gels d’acrylamide pour fabriquer des lentilles de contact de 260 à 340 µm d’épaisseur à base de pHEMA contenant les microgels avec une molécule encapsulée devant être administrée dans les yeux. Nous avons modifié la composition de l’hydrogel en incorporant un polymère linéaire, la polyvinylpyrrolidone (PVP). L’obtention d’hydrogels partiellement interpénétrés améliore la rétention d’eau dans les lentilles cornéennes. L’encapsulation dans les microgels chargés négativement a donné de meilleurs rendements avec la lidocaïne et cette dernière a été libérée de la lentille de pHEMA en totalité en approximativement 2 heures qu’elle soit ou non encapsulée dans des microgels. Ainsi dans cette étude pilote, l’impact des microgels n’a pas pu être déterminé et, de ce fait, nécessitera des études approfondies sur la structure et les propriétés de la lentille qui a été développée. En utilisant des modèles de libération plus représentatifs de la physiologie de l’œil, nous pourrions conclure avec plus de certitude concernant l’efficacité d’un tel système d’administration et s’il est possible de l’optimiser.