995 resultados para 2D Gravity modeling
Resumo:
El volumen de datos provenientes de experimentos basados en genómica y poteómica es grande y de estructura compleja. Solo a través de un análisis bioinformático/bioestadístico eficiente es posible identificar y caracterizar perfiles de expresión de genes y proteínas que se expresan en forma diferencial bajo distintas condiciones experimentales (CE). El objetivo principal es extender las capacidades computacionales y analíticos de los softwares disponibles de análisis de este tipo de datos, en especial para aquellos aplicables a datos de electroforésis bidimensional diferencial (2D-DIGE). En DIGE el método estadístico más usado es la prueba t de Student cuya aplicación presupone una única fuente de variación y el cumplimiento de ciertos supuestos distribucionales de los datos (como independencia y homogeneidad de varianzas), los cuales no siempre se cumplen en la práctica, pudiendo conllevar a errores en las estimaciones e inferencias de los efectos de interés. Los modelos Generalizados lineales mixtos (GLMM) permiten no solo incorporar los efectos que, se asume, afectan la variación de la respuesta sino que también modelan estructuras de covarianzas y de correlaciones más afines a las que se presentan en la realidad, liberando del supuesto de independencia y de normalidad. Estos modelos, más complejos en esencia, simplificará el análisis debido a la modelización directa de los datos crudos sin la aplicación de transformaciones para lograr distribuciones más simétricas. Produciendo también a una estimación estadísticamente más eficiente de los efectos presentes y por tanto a una detección más certera de los genes/ proteínas involucrados en procesos biológicos de interés. La característica relevante de esta tecnología es que no se conoce a priori cuáles son las proteínas presentes. Estas son identificadas mediante otras técnicas más costosas una vez que se detectó un conjunto de manchas diferenciales sobre los geles 2DE. Por ende disminuir los falsos positivos es fundamental en la identificación de tales manchas ya que inducen a resultados erróneas y asociaciones biológica ficticias. Esto no solo se logrará mediante el desarrollo de técnicas de normalización que incorporen explícitamente las CE, sino también con el desarrollo de métodos que permitan salirse del supuesto de gaussianidad y evaluar otros supuestos distribucionales más adecuados para este tipo de datos. También, se desarrollarán técnicas de aprendizaje automática que mediante optimización de funciones de costo específicas nos permitan identificar el subconjunto de proteínas con mayor potencialidad diagnóstica. Este proyecto tiene una alta componente estadístico/bioinformática, pero creemos que es el campo de aplicación, es decir la genómica y la proteómica, los que mas se beneficiarán con los resultados esperados. Para tal fin se utilizarán diversas bases de datos de distintos experimentos provistos por distintos centros de investigación nacionales e internacionales
Resumo:
En la investigación anterior -en la zona pampeana de la Provincia de Córdoba- se demostró teórica y empíricamente, que el desarrollo de la Sociedad Civil muchas veces libradas a su suerte y con limitaciones legales apoyan decididamente el desarrollo local, sin embargo han logrado solo parcialmente sus objetivos, por lo que es necesario comenzar un camino de fortalecimiento en los nuevos roles que deben asumir. Los gobiernos locales, a la vez, intentan trabajosamente con contados éxitos detener el procesos de descapitalización social -financiera y humana- de sus comunidades locales y regionales, peregrinando con escaso éxito a los centros concentrados del poder político y económico, para procurar los recursos financieros y humanos necesarios que no alcanzan a reponer los que se fugan desde hace décadas de sus localidades. Las empresas, con ciclos recurrentes de crecimiento y decrecimiento vinculados a los mercados en que colocan sus productos, también se debaten en la búsqueda de los escasos recursos, financieros y humanos, que les permitan consolidar un desarrollo a mediano y largo plazo. El desarrollo alcanzado en Sistemas de información, instrumentos de relevamiento, análisis y elaboración de propuestas para el Desarrollo Local, nos permite avanzar en: 1. La confirmación empírica de las hipótesis iniciales - factores exógenos y endógenos - en la zona Norte y Serrana de la provincia 2. La validación científica -mediante el Análisis de ecuaciones estructurales. de tales supuestos, para el conjunto de las poblaciones analizadas en ambas etapas. 3. La identificación de los problemas normativos que afectan el desarrollo de las Organizaciones de la Sociedad Civil (OSC). METODOLOGÍA Respecto la validación empírica en la zona norte y serrana 1. Selección de las 4 localidades a relevar de acuerdo a las categorías definidas 2. Elaboración de acuerdos con autoridades e instituciones locales. 3. Relevamiento cualitativo con líderes locales y fuentes de datos secundarias. 4. Adaptación de instrumentos de relevamiento a las realidades locales y estudios previos 5. Relevamiento cuantitativo de campo, capacitación de encuestadores y supervisores. 6. Procesamiento y elaboración de informes finales locales. Respecto de la construcción de modelos de desarrollo 1. Desarrollar las dimensiones especificas y las variables (items) de cada factor crítico. 2. Revisar el instrumento con expertos de cada una de las dimensiones. 3. Validar a nivel exploratorio por medio de un Análisis de Componentes Principales 4. Someter a los expertos la evaluación de una serie de localidades que representan cada uno. Respecto de la identificación de las normas legales que afectan a la Sociedad Civil 1.Relevamiento documental de normas 2. Relevamiento con líderes de instituciones de la Sociedad Civil 3. Análisis de las normas vigentes 4. Elaboración de Informes Finales y Transferencia a líderes e instituciones
Resumo:
El volumen de datos provenientes de experimentos basados en genómica y poteómica es grande y de estructura compleja. Solo a través de un análisis bioinformático/bioestadístico eficiente es posible identificar y caracterizar perfiles de expresión de genes y proteínas que se expresan en forma diferencial bajo distintas condiciones experimentales (CE). El objetivo principal es extender las capacidades computacionales y analíticos de los softwares disponibles de análisis de este tipo de datos, en especial para aquellos aplicables a datos de electroforésis bidimensional diferencial (2D-DIGE). En DIGE el método estadístico más usado es la prueba t de Student cuya aplicación presupone una única fuente de variación y el cumplimiento de ciertos supuestos distribucionales de los datos (como independencia y homogeneidad de varianzas), los cuales no siempre se cumplen en la práctica, pudiendo conllevar a errores en las estimaciones e inferencias de los efectos de interés. Los modelos Generalizados lineales mixtos (GLMM) permiten no solo incorporar los efectos que, se asume, afectan la variación de la respuesta sino que también modelan estructuras de covarianzas y de correlaciones más afines a las que se presentan en la realidad, liberando del supuesto de independencia y de normalidad. Estos modelos, más complejos en esencia, simplificarán el análisis debido a la modelización directa de los datos crudos sin la aplicación de transformaciones para lograr distribuciones más simétricas,produciendo también a una estimación estadísticamente más eficiente de los efectos presentes y por tanto a una detección más certera de los genes/proteínas involucrados en procesos biológicos de interés. La característica relevante de esta tecnología es que no se conoce a priori cuáles son las proteínas presentes. Estas son identificadas mediante otras técnicas más costosas una vez que se detectó un conjunto de manchas diferenciales sobre los geles 2DE. Por ende disminuir los falsos positivos es fundamental en la identificación de tales manchas ya que inducen a resultados erróneas y asociaciones biológica ficticias. Esto no solo se logrará mediante el desarrollo de técnicas de normalización que incorporen explícitamente las CE, sino también con el desarrollo de métodos que permitan salirse del supuesto de gaussianidad y evaluar otros supuestos distribucionales más adecuados para este tipo de datos. También, se desarrollarán técnicas de aprendizaje automática que mediante optimización de funciones de costo específicas nos permitan identificar el subconjunto de proteínas con mayor potencialidad diagnóstica. Este proyecto tiene un alto componente estadístico/bioinformática, pero creemos que es el campo de aplicación, es decir la genómica y la proteómica, los que más se beneficiarán con los resultados esperados. Para tal fin se utilizarán diversas bases de datos de distintos experimentos provistos por distintos centros de investigación nacionales e internacionales.
Resumo:
El objetivo general de este proyecto es desarrollar nuevos modelos multi-dominio de máquinas eléctricas para aplicaciones al control y al diagnóstico de fallas. Se propone comenzar con el modelo electromagnético del motor de inducción en base a circuitos magnéticos equivalentes (MEC) validándolo por medio de simulación y de resultados experimentales. Como segundo paso se pretende desarrollas modelos térmicos y mecánicos con el objetivo que puedan ser acoplados al modelo electromagnético y de esta estudiar la interacción de los dominios y se validará mediante resultados de simulación y experimentales el modelo completo. Finalmente se pretende utilizar el modelo multi-dominio como una herramienta para la prueba de nuevas estrategias de control y diagnóstico de fallas. The main objective of this project is the development of new multi-domain models of electric machines for control and fault diagnosis applications. The electromagnetic modeling of the induction motor (IM) will be done using the magnetic equivalent circuits approach. This model will be validated by simulation and by experimental results. As a second step of this project, new mechanical and thermal models for the IM will be developed, with the objective of coupling these models with the electromagnetic one. With this multi-domain model it will be possible to study the interaction between each others. After that, the complete model will be validated by simulation and experimental results. Finally, the model will be used as a tool for testing new control and fault diagnosis strategies.
Resumo:
Surgeons may use a number of cutting instruments such as osteotomes and chisels to cut bone during an operative procedure. The initial loading of cortical bone during the cutting process results in the formation of microcracks in the vicinity of the cutting zone with main crack propagation to failure occuring with continued loading. When a material cracks, energy is emitted in the form of Acoustic Emission (AE) signals that spread in all directions, therefore, AE transducers can be used to monitor the occurrence and development of microcracking and crack propagation in cortical bone. In this research, number of AE signals (hits) and related parameters including amplitude, duration and absolute energy (abs-energy) were recorded during the indentation cutting process by a wedge blade on cortical bone specimens. The cutting force was also measured to correlate between load-displacement curves and the output from the AE sensor. The results from experiments show AE signals increase substantially during the loading just prior to fracture between 90% and 100% of maximum fracture load. Furthermore, an amplitude threshold value of 64dB (with approximate abs-energy of 1500 aJ) was established to saparate AE signals associated with microcracking (41 – 64dB) from fracture related signals (65 – 98dB). The results also demonstrated that the complete fracture event which had the highest duration value can be distinguished from other growing macrocracks which did not lead to catastrophic fracture. It was observed that the main crack initiation may be detected by capturing a high amplitude signal at a mean load value of 87% of maximum load and unsteady crack propagation may occur just prior to final fracture event at a mean load value of 96% of maximum load. The author concludes that the AE method is useful in understanding the crack initiation and fracture during the indentation cutting process.
Resumo:
1
Resumo:
3
Resumo:
2
Resumo:
FUNDAMENTO: A ecocardiografia consiste em método muito útil para seleção e avaliação de resposta à terapia de ressincronização cardíaca (TRC). O eco 3D já tem seu papel estabelecido na avaliação dos volumes ventriculares e fração de ejeção ventricular esquerda (FEVE) com excelente correlação de resultados quando comparado à RNM. OBJETIVO: Comparar a avaliação dos volumes ventriculares (VDVE, VSVE), FEVE e massa do VE antes e após a TRC pela ecocardiografia bi (Eco 2D) e tridimensional (Eco 3D). MÉTODOS: Foram avaliados 24 pacientes com IC CFIII ou IV (NYHA), ritmo sinusal QRS > 150 ms, em vigência de terapêutica otimizada para IC submetidos a TRC. Foram realizados eletrocardiograma (ECG), avaliação clínica, Eco 2D e 3D antes, três e seis meses após a TRC. A comparação entre as técnicas foi realizada utilizando-se a correlação de Pearson (r). RESULTADOS: No momento basal, a correlação entre os métodos foi de 0,96 para avaliação do VDVE, 0,95 para avaliação do VSVE, 0,87 para FEVE, e 0,72 para massa do VE. Após três meses da TRC, a correlação entre os métodos para análise do VDVE foi de 0,96, 0,95 para VSVE, 0,95 para FEVE, e 0,77 para massa do VE. Após seis meses da TRC, a correlação entre o Eco 2D e 3D para análise do VDVE foi de 0,98, 0,91 para VSVE, 0,96 para FEVE, e 0,85 para massa do VE. CONCLUSÃO: Neste estudo foi observada redução dos VDVE,VSVE, além de melhora da FEVE após a TRC. Houve excelente correlação entre o Eco 2D e o 3D para avaliação dos volumes ventriculares e FEVE, e boa correlação entre os métodos para avaliação da massa ventricular esquerda antes e após a TRC.
Resumo:
Coupled Electromechanical Analysis, MEMS Modeling, MEMS, RF MEMS Switches, Defected Ground Structures, Reconfigurable Resonator
Resumo:
This work focuses on the modeling and numerical approximations of population balance equations (PBEs) for the simulation of different phenomena occurring in process engineering. The population balance equation (PBE) is considered to be a statement of continuity. It tracks the change in particle size distribution as particles are born, die, grow or leave a given control volume. In the population balance models the one independent variable represents the time, the other(s) are property coordinate(s), e.g., the particle volume (size) in the present case. They typically describe the temporal evolution of the number density functions and have been used to model various processes such as granulation, crystallization, polymerization, emulsion and cell dynamics. The semi-discrete high resolution schemes are proposed for solving PBEs modeling one and two-dimensional batch crystallization models. The schemes are discrete in property coordinates but continuous in time. The resulting ordinary differential equations can be solved by any standard ODE solver. To improve the numerical accuracy of the schemes a moving mesh technique is introduced in both one and two-dimensional cases ...
Resumo:
feature extraction, feature tracking, vector field visualization