924 resultados para Carp Cyprinus-carpio


Relevância:

10.00% 10.00%

Publicador:

Resumo:

En este trabajo se presenta un método numérico adaptativo para la resolución de problemas temporales de Combustión en la Mecánica de Fluidos. La dis- cretización espacial de las ecuaciones está basada en el método de los elementos finitos y la discretización temporal se realiza con un esquema semilagrangiano para tratar de forma eficiente los términos convectivos. La caracteística principal de la adaptación local, es que el mallado que se construye es anisótropo, lo que le capacita para adaptarse mejor a capas límitee con un reducido coste computacional. Para ello, se define un tensor métrico en cada paso de tiempo, basado en indicadores de error construidos a priori y a posteriori. Ilustraremos el buen comportamiento del código numérico con la modelización de un problema de combustión en 2D y 3D, donde se analilzará la interacción de llamas de difusión de Hidrógeno y vórtices que pueden ser generados en un flujo turbulento.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

This study addresses deflagration initiation of lean and stoichiometric hydrogen–air mixtures by the sudden discharge of a hot jet of their adiabatic combustion products. The objective is to compute the minimum jet radius required for ignition, a relevant quantity of interest for safety and technological applications. For sufficiently small discharge velocities, the numerical solution of the problem requires integration of the axisymmetric Navier–Stokes equations for chemically reacting ideal-gas mixtures, supplemented by standard descriptions of the molecular transport terms and a suitably reduced chemical-kinetic mechanism for the chemistry description. The computations provide the variation of the critical radius for hot-jet ignition with both the jet velocity and the equivalence ratio of the mixture, giving values that vary between a few tens microns to a few hundred microns in the range of conditions explored. For a given equivalence ratio, the critical radius is found to increase with increasing injection velocities, although the increase is only moderately large. On the other hand, for a given injection velocity, the smallest critical radius is found at stoichiometric conditions.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

En esta tesis se va a describir y aplicar de forma novedosa la técnica del alisado exponencial multivariante a la predicción a corto plazo, a un día vista, de los precios horarios de la electricidad, un problema que se está estudiando intensivamente en la literatura estadística y económica reciente. Se van a demostrar ciertas propiedades interesantes del alisado exponencial multivariante que permiten reducir el número de parámetros para caracterizar la serie temporal y que al mismo tiempo permiten realizar un análisis dinámico factorial de la serie de precios horarios de la electricidad. En particular, este proceso multivariante de elevada dimensión se estimará descomponiéndolo en un número reducido de procesos univariantes independientes de alisado exponencial caracterizado cada uno por un solo parámetro de suavizado que variará entre cero (proceso de ruido blanco) y uno (paseo aleatorio). Para ello, se utilizará la formulación en el espacio de los estados para la estimación del modelo, ya que ello permite conectar esa secuencia de modelos univariantes más eficientes con el modelo multivariante. De manera novedosa, las relaciones entre los dos modelos se obtienen a partir de un simple tratamiento algebraico sin requerir la aplicación del filtro de Kalman. De este modo, se podrán analizar y poner al descubierto las razones últimas de la dinámica de precios de la electricidad. Por otra parte, la vertiente práctica de esta metodología se pondrá de manifiesto con su aplicación práctica a ciertos mercados eléctricos spot, tales como Omel, Powernext y Nord Pool. En los citados mercados se caracterizará la evolución de los precios horarios y se establecerán sus predicciones comparándolas con las de otras técnicas de predicción. ABSTRACT This thesis describes and applies the multivariate exponential smoothing technique to the day-ahead forecast of the hourly prices of electricity in a whole new way. This problem is being studied intensively in recent statistics and economics literature. It will start by demonstrating some interesting properties of the multivariate exponential smoothing that reduce drastically the number of parameters to characterize the time series and that at the same time allow a dynamic factor analysis of the hourly prices of electricity series. In particular this very complex multivariate process of dimension 24 will be estimated by decomposing a very reduced number of univariate independent of exponentially smoothing processes each characterized by a single smoothing parameter that varies between zero (white noise process) and one (random walk). To this end, the formulation is used in the state space model for the estimation, since this connects the sequence of efficient univariate models to the multivariate model. Through a novel way, relations between the two models are obtained from a simple algebraic treatment without applying the Kalman filter. Thus, we will analyze and expose the ultimate reasons for the dynamics of the electricity price. Moreover, the practical aspect of this methodology will be shown by applying this new technique to certain electricity spot markets such as Omel, Powernext and Nord Pool. In those markets the behavior of prices will be characterized, their predictions will be formulated and the results will be compared with those of other forecasting techniques.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

En España existen del orden de 1,300 grandes presas, de las cuales un 20% fueron construidas antes de los años 60. El hecho de que existan actualmente una gran cantidad de presas antiguas aún en operación, ha producido un creciente interés en reevaluar su seguridad empleando herramientas nuevas o modificadas que incorporan modelos de fallo teóricos más completos, conceptos geotécnicos más complejos y nuevas técnicas de evaluación de la seguridad. Una manera muy común de abordar el análisis de estabilidad de presas de gravedad es, por ejemplo, considerar el deslizamiento a través de la interfase presa-cimiento empleando el criterio de rotura lineal de Mohr-Coulomb, en donde la cohesión y el ángulo de rozamiento son los parámetros que definen la resistencia al corte de la superficie de contacto. Sin embargo la influencia de aspectos como la presencia de planos de debilidad en el macizo rocoso de cimentación; la influencia de otros criterios de rotura para la junta y para el macizo rocoso (ej. el criterio de rotura de Hoek-Brown); las deformaciones volumétricas que ocurren durante la deformación plástica en el fallo del macizo rocoso (i.e., influencia de la dilatancia) no son usualmente consideradas durante el diseño original de la presa. En este contexto, en la presente tesis doctoral se propone una metodología analítica para el análisis de la estabilidad al deslizamiento de presas de hormigón, considerando un mecanismo de fallo en la cimentación caracterizado por la presencia de una familia de discontinuidades. En particular, se considera la posibilidad de que exista una junta sub-horizontal, preexistente y persistente en el macizo rocoso de la cimentación, con una superficie potencial de fallo que se extiende a través del macizo rocoso. El coeficiente de seguridad es entonces estimado usando una combinación de las resistencias a lo largo de los planos de rotura, cuyas resistencias son evaluadas empleando los criterios de rotura no lineales de Barton y Choubey (1977) y Barton y Bandis (1990), a lo largo del plano de deslizamiento de la junta; y el criterio de rotura de Hoek y Brown (1980) en su versión generalizada (Hoek et al. 2002), a lo largo del macizo rocoso. La metodología propuesta también considera la influencia del comportamiento del macizo rocoso cuando este sigue una ley de flujo no asociada con ángulo de dilatancia constante (Hoek y Brown 1997). La nueva metodología analítica propuesta es usada para evaluar las condiciones de estabilidad empleando dos modelos: un modelo determinista y un modelo probabilista, cuyos resultados son el valor del coeficiente de seguridad y la probabilidad de fallo al deslizamiento, respectivamente. El modelo determinista, implementado en MATLAB, es validado usando soluciones numéricas calculadas mediante el método de las diferencias finitas, empleando el código FLAC 6.0. El modelo propuesto proporciona resultados que son bastante similares a aquellos calculados con FLAC; sin embargo, los costos computacionales de la formulación propuesta son significativamente menores, facilitando el análisis de sensibilidad de la influencia de los diferentes parámetros de entrada sobre la seguridad de la presa, de cuyos resultados se obtienen los parámetros que más peso tienen en la estabilidad al deslizamiento de la estructura, manifestándose además la influencia de la ley de flujo en la rotura del macizo rocoso. La probabilidad de fallo es obtenida empleando el método de fiabilidad de primer orden (First Order Reliability Method; FORM), y los resultados de FORM son posteriormente validados mediante simulaciones de Monte Carlo. Los resultados obtenidos mediante ambas metodologías demuestran que, para el caso no asociado, los valores de probabilidad de fallo se ajustan de manera satisfactoria a los obtenidos mediante las simulaciones de Monte Carlo. Los resultados del caso asociado no son tan buenos, ya que producen resultados con errores del 0.7% al 66%, en los que no obstante se obtiene una buena concordancia cuando los casos se encuentran en, o cerca de, la situación de equilibrio límite. La eficiencia computacional es la principal ventaja que ofrece el método FORM para el análisis de la estabilidad de presas de hormigón, a diferencia de las simulaciones de Monte Carlo (que requiere de al menos 4 horas por cada ejecución) FORM requiere tan solo de 1 a 3 minutos en cada ejecución. There are 1,300 large dams in Spain, 20% of which were built before 1960. The fact that there are still many old dams in operation has produced an interest of reevaluate their safety using new or updated tools that incorporate state-of-the-art failure modes, geotechnical concepts and new safety assessment techniques. For instance, for gravity dams one common design approach considers the sliding through the dam-foundation interface, using a simple linear Mohr-Coulomb failure criterion with constant friction angle and cohesion parameters. But the influence of aspects such as the persistence of joint sets in the rock mass below the dam foundation; of the influence of others failure criteria proposed for rock joint and rock masses (e.g. the Hoek-Brown criterion); or the volumetric strains that occur during plastic failure of rock masses (i.e., the influence of dilatancy) are often no considered during the original dam design. In this context, an analytical methodology is proposed herein to assess the sliding stability of concrete dams, considering an extended failure mechanism in its rock foundation, which is characterized by the presence of an inclined, and impersistent joint set. In particular, the possibility of a preexisting sub-horizontal and impersistent joint set is considered, with a potential failure surface that could extend through the rock mass; the safety factor is therefore computed using a combination of strength along the rock joint (using the nonlinear Barton and Choubey (1977) and Barton and Bandis (1990) failure criteria) and along the rock mass (using the nonlinear failure criterion of Hoek and Brown (1980) in its generalized expression from Hoek et al. (2002)). The proposed methodology also considers the influence of a non-associative flow rule that has been incorporated using a (constant) dilation angle (Hoek and Brown 1997). The newly proposed analytical methodology is used to assess the dam stability conditions, employing for this purpose the deterministic and probabilistic models, resulting in the sliding safety factor and the probability of failure respectively. The deterministic model, implemented in MATLAB, is validated using numerical solution computed with the finite difference code FLAC 6.0. The proposed deterministic model provides results that are very similar to those computed with FLAC; however, since the new formulation can be implemented in a spreadsheet, the computational cost of the proposed model is significantly smaller, hence allowing to more easily conduct parametric analyses of the influence of the different input parameters on the dam’s safety. Once the model is validated, parametric analyses are conducting using the main parameters that describe the dam’s foundation. From this study, the impact of the more influential parameters on the sliding stability analysis is obtained and the error of considering the flow rule is assessed. The probability of failure is obtained employing the First Order Reliability Method (FORM). The probabilistic model is then validated using the Monte Carlo simulation method. Results obtained using both methodologies show good agreement for cases in which the rock mass has a nonassociate flow rule. For cases with an associated flow rule errors between 0.70% and 66% are obtained, so that the better adjustments are obtained for cases with, or close to, limit equilibrium conditions. The main advantage of FORM on sliding stability analyses of gravity dams is its computational efficiency, so that Monte Carlo simulations require at least 4 hours on each execution, whereas FORM requires only 1 to 3 minutes on each execution.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

El propósito del presente proyecto fue seleccionar la configuración de fabricación de probetas obtenidas mediante el proceso de Modelado por Deposición Fundida (FDM) con el termoplástico acrilonitrilo butadieno estireno (ABS), que optimice las propiedades mecánicas de las probetas y el ahorro de material de apoyo. Se aplicaron técnicas de caracterización física y mecánica y de microscopia electrónica de barrido (SEM). Los resultados indicaron que las probetas verticales presentaron aproximadamente el 6 % de pérdida de material frente cerca de un 40% de las probetas horizontales. La rotura de los cordones se produjo longitudinalmente en el borde de las probetas horizontales mientras que en el borde de las probetas verticales fueron por despegue de los cordones de ABS. La rotura de los cordones en el interior de ambas probetas fue en la dirección de los cordones. ABSTRACT The purpose of this project was to select the manufacture design in test specimens obtained using Fused Deposition Modeling (FDM) with Acrylonitrile Butadiene Styrene (ABS), thus optimizing the mechanical properties of the test specimens and saving the support material. The study was carried out by mean of mechanical and physical characterization techniques as well as Scanning Electron Microscopy (SEM). The results indicated that the horizontal test specimen showed approximately 40% of material loss compared to the vertical test specimen showed a loss 8%. The ABS filament breakage occurred longitudinally on the edge of the horizontal test specimen while the ABS filament breakage was transversely by the separation of the ABS filament on the edge of the vertical tests. The breakage of the filament inside both test specimens was in the direction of the filaments.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Among the different interchange design aspects, integrated land use and infrastructure planning is maybe one of the most problematic fields in practice, given that a joint transport and urban planning spills over the regular scope of action of interchange developers, whereas it involves the cooperation and agreement of various authorities. Not only this, but the very issue of land use-transport integration seems to be a long-standing mantra in planning and transport research, lacking scientific evidence. This paper is an output of an ongoing European research project called ?NODES - New tOols for Design and OpEration of Urban Transport InterchangeS?. Its aim is to start re-focusing the academic-scientific evidence on the question and to foresee a specific and practical framework to approach the problem. The underlying hypothesis is that the interchange could be a catalyst of life and security in the city.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

El objetivo de esta ponencia es estudiar la aportación que han hecho los arquitectos a las importantes obras hidráulicas que se han acometido en España durante el siglo XX, entre las cuales podemos destacar las presas de Jándula, El Carpio y Alcalá del Río (de Casto Fernández-Shaw), la presa de Grandas de Salime y la central de Proaza (de Joaquín Vaquero Palacios), la central hidroeléctrica de Canfranc (de Miguel Fisac), las de Mengíbar y el Tambre (de Antonio Palacios), o los conjuntos de Silvón y Arbón (obras del arquitecto Ignacio Álvarez Castelao). Analizaremos estos ejemplos comparándolos no sólo entre sí y con el resto del repertorio de sus autores sino también con otras importantes presas como Aldeadávila, Canelles y Susqueda. Todos los casos mencionados tienen en común la imbricación en su conjunto de las artes estéticas, paisajísticas y funcionales propias de una obra arquitectónica pero aplicadas a una fábrica hidráulica. Estudiaremos cómo los arquitectos, acostumbrados a trabajar en enclaves urbanos, se enfrentan a una obra industrial enmarcada en un entorno natural y a una escala de paisaje.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

El objetivo de esta ponencia es estudiar la aportación de Casto Fernández-Shaw a las importantes obras hidráulicas que se acometieron en Andalucía durante el siglo XX. Este arquitecto diseñó y construyó cuatro presas y centrales hidroeléctricas en la cuenca del río Guadalquivir y sus afluentes, entre los años 1920 y 1931, para la empresa Mengemor. Estudiaremos los casos de El Carpio, Jándula, Encinarejo y Alcalá del Río. Las examinaremos comparándolas además no sólo con el resto de su repertorio (como su proyecto de Monumento al Triunfo de la Civilización o sus arquitecturas futuristas), sino también con otras construcciones hidráulicas similares de otros arquitectos como Joaquín Vaquero Palacios (Presa de Grandas de Salime), Miguel Fisac (Hidroeléctrica de Canfranc), o Ignacio Álvarez Castelao (Conjuntos de Silvón y Arbón); sin olvidar tampoco otras importantes presas españolas como Aldeadávila, Belesar, Susqueda... Todas estos ejemplos mencionados tienen en común la imbricación en su conjunto de las artes estéticas, paisajísticas y funcionales propias de una obra arquitectónica pero aplicadas a una fábrica hidráulica, y es interesante estudiar cómo los arquitectos, acostumbrados a trabajar en enclaves urbanos, se enfrentan a una obra industrial enmarcada en un entorno natural y a una escala de paisaje.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Una Red de Procesadores Evolutivos o NEP (por sus siglas en ingles), es un modelo computacional inspirado por el modelo evolutivo de las celulas, específicamente por las reglas de multiplicación de las mismas. Esta inspiración hace que el modelo sea una abstracción sintactica de la manipulation de information de las celulas. En particu¬lar, una NEP define una maquina de cómputo teorica capaz de resolver problemas NP completos de manera eficiente en tóerminos de tiempo. En la praóctica, se espera que las NEP simuladas en móaquinas computacionales convencionales puedan resolver prob¬lemas reales complejos (que requieran ser altamente escalables) a cambio de una alta complejidad espacial. En el modelo NEP, las cóelulas estóan representadas por palabras que codifican sus secuencias de ADN. Informalmente, en cualquier momento de cómputo del sistema, su estado evolutivo se describe como un coleccion de palabras, donde cada una de ellas representa una celula. Estos momentos fijos de evolucion se denominan configuraciones. De manera similar al modelo biologico, las palabras (celulas) mutan y se dividen en base a bio-operaciones sencillas, pero solo aquellas palabras aptas (como ocurre de forma parecida en proceso de selection natural) seran conservadas para la siguiente configuracióon. Una NEP como herramienta de computation, define una arquitectura paralela y distribuida de procesamiento simbolico, en otras palabras, una red de procesadores de lenguajes. Desde el momento en que el modelo fue propuesto a la comunidad científica en el año 2001, múltiples variantes se han desarrollado y sus propiedades respecto a la completitud computacional, eficiencia y universalidad han sido ampliamente estudiadas y demostradas. En la actualidad, por tanto, podemos considerar que el modelo teórico NEP se encuentra en el estadio de la madurez. La motivación principal de este Proyecto de Fin de Grado, es proponer una aproxi-mación práctica que permita dar un salto del modelo teórico NEP a una implantación real que permita su ejecucion en plataformas computacionales de alto rendimiento, con el fin de solucionar problemas complejos que demanda la sociedad actual. Hasta el momento, las herramientas desarrolladas para la simulation del modelo NEP, si bien correctas y con resultados satisfactorios, normalmente estón atadas a su entorno de ejecucion, ya sea el uso de hardware específico o implementaciones particulares de un problema. En este contexto, el propósito fundamental de este trabajo es el desarrollo de Nepfix, una herramienta generica y extensible para la ejecucion de cualquier algo¬ritmo de un modelo NEP (o alguna de sus variantes), ya sea de forma local, como una aplicación tradicional, o distribuida utilizando los servicios de la nube. Nepfix es una aplicacion software desarrollada durante 7 meses y que actualmente se encuentra en su segunda iteration, una vez abandonada la fase de prototipo. Nepfix ha sido disenada como una aplicacion modular escrita en Java 8 y autocontenida, es decir, no requiere de un entorno de ejecucion específico (cualquier maquina virtual de Java es un contenedor vólido). Nepfix contiene dos componentes o móodulos. El primer móodulo corresponde a la ejecución de una NEP y es por lo tanto, el simulador. Para su desarrollo, se ha tenido en cuenta el estado actual del modelo, es decir, las definiciones de los procesadores y filtros mas comunes que conforman la familia del modelo NEP. Adicionalmente, este componente ofrece flexibilidad en la ejecucion, pudiendo ampliar las capacidades del simulador sin modificar Nepfix, usando para ello un lenguaje de scripting. Dentro del desarrollo de este componente, tambióen se ha definido un estóandar de representacióon del modelo NEP basado en el formato JSON y se propone una forma de representation y codificación de las palabras, necesaria para la comunicación entre servidores. Adicional-mente, una característica importante de este componente, es que se puede considerar una aplicacion aislada y por tanto, la estrategia de distribution y ejecución son total-mente independientes. El segundo moódulo, corresponde a la distribucióon de Nepfix en la nube. Este de-sarrollo es el resultado de un proceso de i+D, que tiene una componente científica considerable. Vale la pena resaltar el desarrollo de este modulo no solo por los resul-tados prócticos esperados, sino por el proceso de investigation que se se debe abordar con esta nueva perspectiva para la ejecución de sistemas de computación natural. La principal característica de las aplicaciones que se ejecutan en la nube es que son gestionadas por la plataforma y normalmente se encapsulan en un contenedor. En el caso de Nepfix, este contenedor es una aplicacion Spring que utiliza el protocolo HTTP o AMQP para comunicarse con el resto de instancias. Como valor añadido, Nepfix aborda dos perspectivas de implementation distintas (que han sido desarrolladas en dos iteraciones diferentes) del modelo de distribution y ejecucion, que tienen un impacto muy significativo en las capacidades y restricciones del simulador. En concreto, la primera iteration utiliza un modelo de ejecucion asincrono. En esta perspectiva asincrona, los componentes de la red NEP (procesadores y filtros) son considerados como elementos reactivos a la necesidad de procesar una palabra. Esta implementation es una optimization de una topologia comun en el modelo NEP que permite utilizar herramientas de la nube para lograr un escalado transparente (en lo ref¬erente al balance de carga entre procesadores) pero produce efectos no deseados como indeterminacion en el orden de los resultados o imposibilidad de distribuir eficiente-mente redes fuertemente interconectadas. Por otro lado, la segunda iteration corresponde al modelo de ejecucion sincrono. Los elementos de una red NEP siguen un ciclo inicio-computo-sincronizacion hasta que el problema se ha resuelto. Esta perspectiva sincrona representa fielmente al modelo teórico NEP pero el proceso de sincronizacion es costoso y requiere de infraestructura adicional. En concreto, se requiere un servidor de colas de mensajes RabbitMQ. Sin embargo, en esta perspectiva los beneficios para problemas suficientemente grandes superan a los inconvenientes, ya que la distribuciín es inmediata (no hay restricciones), aunque el proceso de escalado no es trivial. En definitiva, el concepto de Nepfix como marco computacional se puede considerar satisfactorio: la tecnología es viable y los primeros resultados confirman que las carac-terísticas que se buscaban originalmente se han conseguido. Muchos frentes quedan abiertos para futuras investigaciones. En este documento se proponen algunas aproxi-maciones a la solucion de los problemas identificados como la recuperacion de errores y la division dinamica de una NEP en diferentes subdominios. Por otra parte, otros prob-lemas, lejos del alcance de este proyecto, quedan abiertos a un futuro desarrollo como por ejemplo, la estandarización de la representación de las palabras y optimizaciones en la ejecucion del modelo síncrono. Finalmente, algunos resultados preliminares de este Proyecto de Fin de Grado han sido presentados recientemente en formato de artículo científico en la "International Work-Conference on Artificial Neural Networks (IWANN)-2015" y publicados en "Ad-vances in Computational Intelligence" volumen 9094 de "Lecture Notes in Computer Science" de Springer International Publishing. Lo anterior, es una confirmation de que este trabajo mas que un Proyecto de Fin de Grado, es solo el inicio de un trabajo que puede tener mayor repercusion en la comunidad científica. Abstract Network of Evolutionary Processors -NEP is a computational model inspired by the evolution of cell populations, which might model some properties of evolving cell communities at the syntactical level. NEP defines theoretical computing devices able to solve NP complete problems in an efficient manner. In this model, cells are represented by words which encode their DNA sequences. Informally, at any moment of time, the evolutionary system is described by a collection of words, where each word represents one cell. Cells belong to species and their community evolves according to mutations and division which are defined by operations on words. Only those cells are accepted as surviving (correct) ones which are represented by a word in a given set of words, called the genotype space of the species. This feature is analogous with the natural process of evolution. Formally, NEP is based on an architecture for parallel and distributed processing, in other words, a network of language processors. Since the date when NEP was pro¬posed, several extensions and variants have appeared engendering a new set of models named Networks of Bio-inspired Processors (NBP). During this time, several works have proved the computational power of NBP. Specifically, their efficiency, universality, and computational completeness have been thoroughly investigated. Therefore, we can say that the NEP model has reached its maturity. The main motivation for this End of Grade project (EOG project in short) is to propose a practical approximation that allows to close the gap between theoretical NEP model and a practical implementation in high performing computational platforms in order to solve some of high the high complexity problems society requires today. Up until now tools developed to simulate NEPs, while correct and successful, are usu¬ally tightly coupled to the execution environment, using specific software frameworks (Hadoop) or direct hardware usage (GPUs). Within this context the main purpose of this work is the development of Nepfix, a generic and extensible tool that aims to execute algorithms based on NEP model and compatible variants in a local way, similar to a traditional application or in a distributed cloud environment. Nepfix as an application was developed during a 7 month cycle and is undergoing its second iteration once the prototype period was abandoned. Nepfix is designed as a modular self-contained application written in Java 8, that is, no additional external dependencies are required and it does not rely on an specific execution environment, any JVM is a valid container. Nepfix is made of two components or modules. The first module corresponds to the NEP execution and therefore simulation. During the development the current state of the theoretical model was used as a reference including most common filters and processors. Additionally extensibility is provided by the use of Python as a scripting language to run custom logic. Along with the simulation a definition language for NEP has been defined based on JSON as well as a mechanisms to represent words and their possible manipulations. NEP simulator is isolated from distribution and as mentioned before different applications that include it as a dependency are possible, the distribution of NEPs is an example of this. The second module corresponds to executing Nepfix in the cloud. The development carried a heavy R&D process since this front was not explored by other research groups until now. It's important to point out that the development of this module is not focused on results at this point in time, instead we focus on feasibility and discovery of this new perspective to execute natural computing systems and NEPs specifically. The main properties of cloud applications is that they are managed by the platform and are encapsulated in a container. For Nepfix a Spring application becomes the container and the HTTP or AMQP protocols are used for communication with the rest of the instances. Different execution perspectives were studied, namely asynchronous and synchronous models were developed for solving different kind of problems using NEPs. Different limitations and restrictions manifest in both models and are explored in detail in the respective chapters. In conclusion we can consider that Nepfix as a computational framework is suc-cessful: Cloud technology is ready for the challenge and the first results reassure that the properties Nepfix project pursued were met. Many investigation branches are left open for future investigations. In this EOG implementation guidelines are proposed for some of them like error recovery or dynamic NEP splitting. On the other hand other interesting problems that were not in the scope of this project were identified during development like word representation standardization or NEP model optimizations. As a confirmation that the results of this work can be useful to the scientific com-munity a preliminary version of this project was published in The International Work- Conference on Artificial Neural Networks (IWANN) in May 2015. Development has not stopped since that point and while Nepfix in it's current state can not be consid¬ered a final product the most relevant ideas, possible problems and solutions that were produced during the seven months development cycle are worthy to be gathered and presented giving a meaning to this EOG work.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Ambient light conditions affect the morphology of synaptic elements within the cone pedicle and modulate the spatial properties of the horizontal cell receptive field. We describe here that the effects of retinoic acid on these properties are similar to those of light adaptation. Intraorbital injection of retinoic acid into eyes of dark-adapted carp that subsequently were kept in complete darkness results in the formation of numerous spinules at the terminal dendrites of horizontal cells, a typical feature of light-adapted retinae. The formation of these spinules during light adaptation is impaired in the presence of citral, a competitive inhibitor of the dehydrogenase responsible for the generation of retinoic acid in vivo. Intracellularly recorded responses of horizontal cells from dark-adapted eyecup preparations superfused with retinoic acid reveal typical light-adapted spatial properties. Retinoic acid thus appears to act as a light-signaling modulator. Its activity appears not to be at the transcriptional level because its action was not blocked by actinomycin.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

The matrix (M) protein of vesicular stomatitis virus inhibits both nuclear import and export. Here, we demonstrate that this inhibitory property is conserved between the M proteins from two other vesiculoviruses, chandipura virus and spring viremia carp virus. All three M proteins completely block nuclear transport of spliced mRNA, small nuclear RNAs, and small nuclear ribonucleoproteins and slow the nuclear transport of many other cargoes. In all cases where transport was merely slowed by the M proteins, the chandipura virus M protein had the strongest inhibitory activity. When expressed in transfected HeLa cells, active M proteins displayed prominent association with the nuclear rim. Moreover, mutation of a conserved methionine abolished both the inhibitory activity and efficient targeting of the M proteins to the nuclear rim. We propose that all of the vesiculoviral M proteins associate with the same nuclear target, which is likely to be a component of the nuclear pore complex.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

The localization, trafficking, and fluorescence of Aequorea green fluorescent protein (GFP) in cultured vertebrate cells transiently transfected with GFP cDNA were studied. Fluorescence of GFP in UV light was found to be strongest when cells were incubated at 30 degrees C but was barely visible at an incubation temperature of 37 degrees C. COS-1 cells, primary chicken embryonic retina cells, and carp epithelial cells were fluorescently labeled under these conditions. GFP was distributed uniformly throughout the cytoplasm and nucleus independent of cell type examined. When GFP was fused to PML protooncogene product, fluorescence was detected in a unique nuclear organelle pattern indistinguishable from that of PML protein, showing the potential use of GFP as a fluorescent tag. To analyze both function and intracellular trafficking of proteins fused to GFP, a GFP-human glucocorticoid receptor fusion construct was prepared. The GFP-human glucocorticoid receptor efficiently transactivated the mouse mammary tumor virus promoter in response to dexamethasone at 30 degrees C but not at 37 degrees C, indicating that temperature is important, even for function of the GFP fusion protein. The dexamethasone-induced translocation of GFP-human glucocorticoid receptor from cytoplasm to nucleus was complete within 15 min; the translocation could be monitored in a single living cell in real time.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Tumor induced angiogenesis processes including the effect of stochastic motion and branching of blood vessels can be described coupling a (nonlocal in time) integrodifferential kinetic equation of Fokker–Planck type with a diffusion equation for the tumor induced ingiogenic factor. The chemotactic force field depends on the flux of blood vessels through the angiogenic factor. We develop an existence and uniqueness theory for this system under natural assumptions on the initial data. The proof combines the construction of fundamental solutions for associated linearized problems with comparison principles, sharp estimates of the velocity integrals and compactness results for this type of kinetic and parabolic operators

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Antecedentes/Objetivos: La investigación es una necesidad común, sin embargo, las características y el contexto de los distintos países hace que la producción de la misma difiera considerablemente. El presente estudio bibliométrico tiene como objetivo describir la investigación en ciencias de la salud en Ecuador en el contexto Latinoamericano, durante el período 1996-2012. Métodos: Para el análisis se hizo uso de indicadores existentes en las bases de datos Scimago y Scopus. Se seleccionó estratégicamente a 3 países para ser comparados con la producción científica en ciencias de la salud ecuatoriana, tomando en cuenta a Brasil, México y Bolivia. Se analizaron las categorías: “Medicina”, “Enfermería”, “Nutrición y Dietética”, “Salud Pública” y “Epidemiología”, que tienen relación con ciencias de la salud y se encuentran contempladas dentro del “Plan Nacional del Buen Vivir” de Ecuador. Se analizó el número total de publicaciones en este período de tiempo, el ranking por país según número de publicaciones, el índice-H, las instituciones de mayor producción científica, los máximos productores y la colaboración internacional en publicaciones científicas. Se utilizaron las herramientas de ranking por país y comparar de Scimago y para la identificación tanto de “instituciones de excelencia” “ como de “grandes productores” se utilizó la herramienta ranking de Scopus. Resultados: Se encontró que en todas las categorías Brasil ocupa el puesto 1 y tiene el índice-H más alto, seguido por México en ranking e índice-H, Ecuador está por debajo de estos dos países pero supera a Bolivia. En cuanto a los grupos de excelencia en investigación, se encontró que dentro de los 10 primeros, solo 5 son universidades y el 60% pertenecen al sector privado, la institución que más publicaciones científicas tiene es la Universidad Central del Ecuador y el máximo productor en el Ecuador es Del Brutto, O.H. En lo referente a la colaboración científica internacional en ciencias de la salud, Ecuador recibe entre 57,8 y 100%. Conclusiones: De lo analizado se puede decir que la contribución de la investigación en ciencias de la salud en Ecuador en el contexto Latinoamericano es baja, con un despunte a partir del año 2003, que supera en incremento porcentual a México y Bolivia, este despunte podría deberse en parte a que en el Ecuador, en el año 2002 se establece la Política y la Ley del Sistema Nacional de Salud, que da inicio en octubre del mismo año al Foro Nacional de Investigación en Salud y para marzo del 2004, se instala la Comisión de Ciencia y Tecnología del Consejo Nacional de Salud), sin embargo son necesarios más esfuerzos del Gobierno ecuatoriano para desarrollar una política de I+D efectiva.