1000 resultados para Métodos de análisis multivariable
Resumo:
Este trabajo presenta el desarrollo de una aplicación destinada al análisis de secuencias de imágenes para la detección de movimiento en la escena. Se trata de un campo importante de la Visión Artificial, con múltiples aplicaciones entre las que se encuentra la videovigilancia con fines de seguridad, el control de tráfico, el movimiento de personas o el seguimiento y localización de objetos entre otras muchas. Para ello se utilizan métodos de análisis como son el de Lucas-Kanade y Gauss-Seidel, que obtienen el denominado flujo óptico. Este describe el movimiento que ha tenido lugar entre las imágenes y su fundamento estriba en la determinación de las variables espaciales y temporales en las imágenes, siendo precisamente la variable temporal la que introduce el concepto fundamental para el análisis del movimiento a partir de las imágenes captadas en diferentes instantes de tiempo dentro de la secuencia analizada. Para el desarrollo de la aplicación se han utilizado técnicas propias del tratamiento de la Visión Artificial, así como la metodología proporcionada por la Ingeniería del Software. Así, se ha realizado una especificación de requisitos, se ha elaborado y seguido un plan de proyecto y se ha realizado un análisis de alto nivel, que se materializa en el correspondiente diseño e implementación, junto con las pruebas de verificación y validación, obviamente adaptados en todos los casos a las dimensiones del proyecto, pero que establecen claramente los planteamientos básicos para el desarrollo de una aplicación a nivel empresarial. La aplicación planteada se enmarca perfectamente dentro del paradigma, hoy en día en pleno auge, conocido como el Internet de las Cosas (IoT). El IoT permite la intercomunicación entre dispositivos remotos, de forma que mediante la correspondiente comunicación a través de conexiones a Internet es posible obtener datos remotos para su posterior análisis, bien en nodos locales o en la nube, como concepto íntimamente relacionado con el IoT. Este es el caso de la aplicación que se presenta, de suerte que los métodos de procesamiento de las imágenes pueden aplicarse localmente o bien transmitir las mismas para su procesamiento en nodos remotos.
Resumo:
Objetivos: A principios de 2010 el Hospital Universitario Virgen de la Arrixaca puso en marcha, en el servicio de partos, el protocolo de donación voluntaria de sangre de cordón umbilical (SCU). Desde la reflexión y la autoevaluación, planteamos un análisis de nuestra situación actual a través del estudio de la influencia de las variables obstétrico-fetales en la calidad de las muestras. Métodos: Con este fin hemos planteado un trabajo de tipo observacional, descriptivo, retrospectivo y de corte transversal desde mayo de 2010 a noviembre de 2011, con el objetivo de aumentar la calidad de las unidades de SCU y optar por una gestión eficiente que haga sostenible el proyecto. Resultados: Se obtuvieron 123 donaciones potenciales de sangre de cordón y del análisis multivariable de las mismas obtuvimos una correlación positiva significativa entre el número de leucocitos, las semanas de gestación y el parto vaginal. El peso inicial de la unidad se incrementó significativamente a mayor peso del recién nacido y paridad de la donante. Conclusiones: Como conclusiones del estudio nos planteamos esbozar posibles factores predictivos que permitan seleccionar las muestras de mayor calidad y sean complemento de los actuales estándares elaborados por el Banco Público de Málaga. En este sentido nuestros resultados sugieren que en los partos con más semanas de gestación, paridad de la gestante y peso del recién nacido, así como en los partos vaginales, encontramos mayores posibilidades de obtener muestras de alta calidad.
Resumo:
Los medios de prensa tienen un rol determinante en la construcción, legitimación y representación de distintas realidades socioculturales, las cuales a su vez generan lineamientos institucionalizados de unas identidades nacionales sobre otras, creando relaciones desiguales en base de prejuicios y estereotipos. Los países vecinos cuentan con historias de unidad y conflictos, pero el tiempo a veces no es suficiente para cerrar viejas heridas, como ocurre con la Guerra del Pacífico (18791883). En este contexto se analizaron las noticias de los medios con mayor injerencia a nivel país: La Razón (Bolivia) y El Mercurio (Chile), donde, por medio de una herramienta metodológica de Análisis Crítico y Complejo del Discurso Verbovisual, se buscó dilucidar los procesos de construcción discursiva de cada Estadonación y confirmar cómo éstos se mantienen a través del tiempo.
Resumo:
Uno de los métodos de mayor difusión en análisis orientado a objetos es el de Grady y el artículo describe una parte de los resultados de la aplicación del método al sistema de información de una biblioteca universitaria. Este artículo hace parte de varios trabajos llevados a cabo con los estudiantes de Ingeniería de Sistemas para conocer y aplicar los principales métodos de análisis y diseño orientados a objetos desarrollados en el mundo.
Resumo:
La investigación aporta nuevas metodologías para la detección y evaluación daños indirectos e intangibles post-inundación en zona urbanas. El caso en estudio es la cuenca del arroyo Topo Chico ubicada al poniente del Área Metropolitana de Monterrey, México. Se inicia con el argumento teórico de las diferentes perspectivas en relación los daños postinundación, posteriormente, en el desarrollo de la metodología se analizan los datos agregados por colonia y por vivienda encuestada. Para tales perspectivas como son: pobreza y marginación, género, edad, arraigo, riesgo, salud, daños directos e indirectos, vivienda, prevención, percepción, resiliencia y mitigación, se detecta un alto valor de daños indirectos intangibles en la zona en estudio. Posterior a una correlación de variables, se aplicó un análisis de factores y de componentes principales con rotación varimax normalizada, en donde resultaron 4 factores que explican el 69.9 % de la varianza total. Tales factores resultaron en relación a las dimensiones de salud física, resiliencia, nivel de educación y salud mental, siendo éstas altamente relacionadas con la posición de diferentes autores sobre los efectos indirectos e intangibles posterior a una inundación. Se generó un Sistema de Información Geográfica para la agregación de datos biofísicos y sociodemográficos procedentes de una encuesta para 877 casos realizada a la población residente en la zona en estudio, que históricamente han sido afectados por lluvias a cinco años de la tormenta tropical Alex del 2010. Se generó sobre la zona en estudio una representación geoespacial mediante mapas de zonas de daños intangibles y totales. Además, se resalta la subvaloración de daños indirectos e intangibles, tanto por los argumentos establecidos en el marco teórico como por los resultados que arroja esta investigación. Las causas en subestimación detectadas y más relevantes son: El tiempo inmediato de evaluación del daño, que no permite visualizar los efectos indirectos e intangibles; El análisis macroescala en lugar de microescala; El no incluir en los métodos de análisis inclusión de variables del sector salud física y mental; El considerar únicamente la profundidad del agua en los criterios técnicos de evaluación. Estas condiciones aportan en el análisis estadístico nuevas vertientes en los criterios de evaluación de daños indirectos e intangibles y con ello abonar en la reducción de la incertidumbre en la gestión de daños post-inundación en regiones urbanas de países en desarrollo
Resumo:
Se busca profundizar en el entendimiento del transporte cuántico prediciendo y observando efectos de interferencias temporales (ecos mesoscópicos) y espaciales. Estos conocimientos se aplican a la difusión de excitaciones, cuantificando así las interacciones que controlan la relajación. En el caso de espines, se desarrollan métodos de análisis que permiten una mejor cuantificación de las interacciones magnéticas. Se posibilita así la caracterización de moléculas y nanopartículas metálicas por RMN. En el caso de microdispositivos, el control de las excitaciones cuánticas nos permitió el diseño de un amplificador de ultra-sonido por emisión estimulada (SASER) que convierte las excitaciones electrónicas en ultrasonido. Objetivos En lo relativo al transporte de carga, se quiere optimizar los parámetros del dispositivo SASER (amplificador de ultra-sonido por emisión estimulada). Se estudiará la compatibilidad de las aproximaciones de transporte coherente y secuencial. Por otra parte se continuará con el estudio de las manifestaciones del confinamiento electrónico en una nanoestructura en el espectro de RMN de núcleos metálicos para lograr un mejor ajuste con los resultados experimentales. En lo relativo al transporte de magnetización, el objetivo teórico es encontrar las condiciones para la observación de ecos cuánticos así como otros fenómenos temporales en el transporte de espines en molécula, procurando extenderlos al transporte de carga en microdispositivos. Se desea evaluar la influencia de interacciones de muchas partículas y otras interacciones que rompen la coherencia de fase en la descripción dinámica de las excitaciones. En la parte experimental, se crecen monocristales de moléculas orgánicas susceptibles de presentar los ecos dinámicos estudiados en la parte teórica. (...) También deseamos explorar la difusión de magnetización mediante el análisis de Coherencias Cuánticas Múltiples. En síntesis, se espera mejorar la cuantificación e identificación de los ecos medidos en ferroceno y cimantreno, incorporando el efecto de las interacciones que rompen la coherencia de fase.
Resumo:
Las fluoroquinolonas constituyen una familia de antimicrobianos que, desde su introducción en terapéutica, han demostrado propiedades anti-infecciosas que los hacen insustituibles en el tratamiento de numerosas patologías. El presente proyecto forma parte de un plan interdisciplinario de trabajo que comprende: 1) la síntesis y el estudio de actividad antimicrobiana de nuevos AMFQs; 2) el comportamiento farmacocinético de nuevas moléculas en animales de laboratorio; 3) el estudio de propiedades fisicoquímicas de los AMFQs; y 4) la preparación de derivados, sales y complejos de los AMFQs de interés farmacocinético. Como parte del trabajo realizado en nuestro laboratorio hemos logrado obtener, al estado sólido, complejos entre AMFQs zwiteriónicos y el catión aluminio (Al+3) que responden a la fórmula: (CI-+HAMFQ)3Al. Estos complejos AMFQ-Al pueden ser de interés en la formulación de constituyentes farmacéuticos sólidos de los mencionados antimicrobianos ya que exhiben una alta solubilidad en agua y, por ende, una alta velocidad de disolución. Este factor puede contribuir tanto a mejorar la biodisponibilidad de formas farmacéuticas orales cuanto a ampliar las posibilidades de formulación; constituyendo el estudio de este aspecto el eje de esta investigación. En coherencia con lo expuesto, nos proponemos como objetivos: 1) completar la caracterización física y química de los complejos al estado sólido; 2) consolidar el método de preparación de modo que pueda realizarse a mayor escala y en forma paralela desarrollar los estudios de preformulación, formulación de comprimidos y de cápsulas y la evaluación de la biodisponibilidad y toxicidad de los nuevos complejos en tales formulaciones; 3) evaluar las ventajas y/o desventajas de la formulación bajo la forma de complejos en relación con las ya existentes. En lo metodológico, cabe señalar que se prevé la utilización de métodos químicos para preparar complejos AMFQ-Al al estado sólido de norfloxacina, ciprofloxacina y ofloxacina. Asimismo, para establecer la estequimetría y caracterizar su estructura se emplearán métodos analíticos mediante los cuales se extraerá información preliminar que luego será complementada con métodos espectroscópicos, análisis térmico y microscopía electrónica.
Resumo:
Se conocen una serie de derivados naftoquinónicos los cuales poseen propiedades tripanosidas, bactericidas y antineoplásicas. Desafortunadamente estos compuestos presentan una muy baja solubilidad en agua, la cual es de 3-4 órdenes de magnitud inferior a la concentración mínima necesaria para la formulación de soluciones parentales utilizadas en estudios clínicos. Además este es también un factor limitante para la realización de estudios in vitro a algunos de estos derivados. Para revertir esta situación se intentará la la formación de complejos de inclusión con ciclodextrinas, ya que en la literatura se encuentra una gran cantidad de antecedentes respecto al aumento de la solubilidad en agua de diversas drogas mediante la utilización de ciclodextrinas. Los estudios comprenderán: 1. Formación de complejos de inclusión. a. En solución. Se intentará la formación de complejos entre la 2-hidroxi-N-(3,4-dimetil-5-isoxazolil) -1, 4-naftoquinona-4-imina con la 2-hidroxi-N-(5-metil-3-isoxazolil)-1,4- naftoquinona-4-imina con la 2-hidroxipropil-b-ciclodextrina. Se analizará el efecto que produce la encapsulación molecular sobre la solubilidad acuosa y la estabilidad. b. En estado sólido. Se prepararán complejos de inclusión sólidos, los cuales se caracterizarán por métodos de análisis térmicos y por IR. 2. HPLC utilizando soluciones acuosas de Ciclodextrinas como fase móvil. Se analizará el efecto que ejerce, sobre la separación de ácido acetilsalicílico y ácido salicílico, la adición de ciclodextrinas a la fase móvil de un sistema de HPLC, con el objeto de encontrar un método de análisis rápido y sencillo para muestras comerciales de AAs.
Resumo:
Los requerimientos de una rápida obtención de resultados más exactos en el campo de la química clínica, forense, ambiental y farmacéutica, y la industria en general, han impulsado la investigación de nuevos métodos de análisis y dentro de ellos los electroquímicos han evidenciado un notable desarrollo. La importancia del proyecto que se pone a consideración radica en las múltiples posibilidades de interacción que ofrece con la biotecnología y con diferentes ramas de la química. El desarrollo de nuevos biosensores para la cuantificación de glucosa reviste gran importancia ya que, aunque los biosensores electroquímicos han permitido obtener muy buenos resultados en el mercado, ellos continúan siendo uno de los desafíos de muchas empresas líderes. En lo que se refiere a los biosensores de afinidad la potencialidad que tienen en cuanto a la diversidad de aplicaciones es bastante: en la química farmacéutica en el diseño racional de nuevos fármacos (antibióticos, anticancerígenos); en la química clínica, en el diagnóstico de enfermedades especialmente genéticas; en la clínica forense, por que la determinación del DNA en determinadas muestras es de vital importancia para el esclarecimiento de situaciones legales; en la química ambiental, porque permitiría un mejor conocimiento de los efectos tóxicos de algunos contaminantes. (...) Objetivos generales: * Diseñar y optimizar nuevos sensores electroquímicos de afinidad conteniendo ácidos nucleicos como elemento de reconocimiento. * Preparar y caracterizar biosensores obtenidos por inmovilización de oxidasas sobre electrodos de carbono metalizados. Objetivos específicos: * Diseñar y optimizar nuevos biosensores electroquímicos de afinidad para la determinación de compuestos capaces de interaccionar con ácidos nucleicos. * Estudiar la adsorción de ácidos nucleicos sobre electrodos de carbono. * Preparar y caracterizar electrodos enzimáticos metalizados para la cuantificación de glucosa. * Estudiar electroquímicamente la cinética de la reacción catalizada por la enzima inmovilizada.
Resumo:
Nuevas biotecnologías, como los marcadores de la molécula de ADN, permiten caracterizar el genoma vegetal. El uso de la información genómica producida para cientos o miles de posiciones cromosómicas permite identificar genotipos superiores en menos tiempo que el requerido por la selección fenotípica tradicional. La mayoría de los caracteres de las especies vegetales cultivadas de importancia agronómica y económica, son controlados por poli-genes causantes de un fenotipo con variación continua, altamente afectados por el ambiente. Su herencia es compleja ya que resulta de la interacción entre genes, del mismo o distinto cromosoma, y de la interacción del genotipo con el ambiente, dificultando la selección. Estas biotecnologías producen bases de datos con gran cantidad de información y estructuras complejas de correlación que requieren de métodos y modelos biométricos específicos para su procesamiento. Los modelos estadísticos focalizados en explicar el fenotipo a partir de información genómica masiva requieren la estimación de un gran número de parámetros. No existen métodos, dentro de la estadística paramétrica capaces de abordar este problema eficientemente. Además los modelos deben contemplar no-aditividades (interacciones) entre efectos génicos y de éstos con el ambiente que son también dificiles de manejar desde la concepción paramétrica. Se hipotetiza que el análisis de la asociación entre caracteres fenotípicos y genotipos moleculares, caracterizados por abundante información genómica, podría realizarse eficientemente en el contexto de los modelos mixtos semiparamétricos y/o de métodos no-paramétricos basados en técnicas de aprendizaje automático. El objetivo de este proyecto es desarrollar nuevos métodos para análisis de datos que permitan el uso eficiente de información genómica masiva en evaluaciones genéticas de interés agro-biotecnológico. Los objetivos específicos incluyen la comparación, respecto a propiedades estadísticas y computacionales, de estrategias analíticas paramétricas con estrategias semiparamétricas y no-paramétricas. Se trabajará con aproximaciones por regresión del análisis de loci de caracteres cuantitativos bajo distintas estrategias y escenarios (reales y simulados) con distinto volúmenes de datos de marcadores moleculares. En el área paramétrica se pondrá especial énfasis en modelos mixtos, mientras que en el área no paramétrica se evaluarán algoritmos de redes neuronales, máquinas de soporte vectorial, filtros multivariados, suavizados del tipo LOESS y métodos basados en núcleos de reciente aparición. La propuesta semiparamétrica se basará en una estrategia de análisis en dos etapas orientadas a: 1) reducir la dimensionalidad de los datos genómicos y 2) modelar el fenotipo introduciendo sólo las señales moleculares más significativas. Con este trabajo se espera poner a disposición de investigadores de nuestro medio, nuevas herramientas y procedimientos de análisis que permitan maximizar la eficiencia en el uso de los recursos asignados a la masiva captura de datos genómicos y su aplicación en desarrollos agro-biotecnológicos.
Resumo:
IDENTIFICACIÓN Y CARACTERIZACIÓN DEL PROBLEMA - HIPÓTESIS Según la NIC 39, el valor razonable es la cantidad por la que puede ser intercambiado un activo o cancelado un pasivo entre un comprador y un vendedor interesados y debidamente informados, en condiciones de independencia mutua. La definición del FASB (SFAC 7) es muy similar, y define el valor razonable como el monto mediante el que un activo podría ser enajenado en una transacción entre partes independientes, dispuestas a realizar la operación en situaciones diferentes a la de una liquidación o a la de una venta forzada. Puede apreciarse que esta definición de valor razonable es limitada porque, a excepción de escenarios que se correspondan con mercados perfectos y completos, el concepto puede abarcar valores de entrada, valores de salida y valores en uso, los cuales pueden ser muy diferentes (Beaver, 1987). El valor de entrada es el valor de adquisición o de reemplazo, el valor de salida es el precio al cual un activo puede ser vendido o liquidado, y el valor en uso es el valor incremental de una empresa atribuible a un activo (se correspondería con el valor presente mencionado anteriormente). Dado que el IASB y la FASB se ocupan de la valuación de activos que una empresa posee, y no de activos que serán adquiridos en un futuro, su definición de valor razonable debería ser interpretada desde la perspectiva del vendedor. Por lo tanto, el concepto de valor razonable que manejan el IASB y la FASB se asemeja a un valor de salida, tal como lo propusieron Chambers y Stirling hace bastantes años atrás.Planteado esto, lo que tratará de dilucidar este proyecto de investigación es si este concepto de valor razonable es realmente novedoso o es una simple regresión a los valores corrientes de salida defendidos por los autores de la década del setenta. OBJETIVOS GENERALES Y ESPECÍFICOS General Analizar si el concepto “valor razonable” tal como es definido por la normativa actual se corresponde con una definición novedosa o es una adaptación/modificación/regresión de conceptos ya existentes (valores corrientes de salida). Específicos Revisar la literatura específica desde el punto de vista de la teoría contable y las normas de las que dispone la profesión referidas a los siguientes aspectos: a) Valores corrientes b) Valor razonable MATERIALES Y MÉTODOS El análisis que se llevará a cabo comprenderá dos aspectos. El primero consiste en la revisión de la doctrina contable. Para ello se analizará bibliografía significativa y trabajos de eventos académicos relacionados con el valor razonable. En segundo término se revisará la normativa profesional a nivel nacional e internacional. Después de concluido con los pasos anteriores se analizará la novedad del concepto valor razonable y su semejanza con el valor corriente de salida planteado por los autores de la década del setenta. IMPORTANCIA DEL PROYECTO – IMPACTO Se pretende revisar si el concepto valor razonable planteado por la normativa actual resulta realmente novedoso o es una adaptación de viejos conceptos planteados en la década del setenta del siglo pasado. El proyecto resulta importante porque es un tema no desarrollado en la literatura, ni planteado en congresos. Se estima lograr material de publicación y presentación en eventos académicos. According to the NIC 39, fair value is the quantity for the one that can be exchanged an asset or cancelled a liability between a buyer and a seller interested and due informed, in conditions of mutual independence. The definition of the FASB (SFAC 7) is very similar, and defines fair value as the amount by means of which an assets might be alienated in a transaction between independent parts, ready to realize the operation in situations different from that of a liquidation or to that of a forced sale. This definition of reasonable value is limited because, with the exception of scenes that fit with perfect and complete markets, the concept can include values of entry, values of exit and values in use, which can be very different (Beaver, 1987). The value of entry is the value of acquisition or of replacement, the value of exit is the price to which an asset can be sold or liquidated, and the value in use is the incremental value of a company attributable to an asset. Provided that the IASB and the FASB deal with the appraisal of assets that a company possesses, and not of assets that will be acquired in a future, this definition of fair value should be interpreted from the perspective of the seller. Therefore, the concept of reasonable value that they handle the IASB and the FASB is alike a value of exit, as Chambers and Stirling proposed it enough years ago behind. We will review if the concept of "fair value" is really new or if it is an adaptation of old concepts.
Resumo:
En cerdos la micotoxicosis representa uno de los problemas de contaminación ambiental más frecuente. La aflatoxina B1 (AFB1) producida por ciertas cepas de A. flavus y A. parasiticus, es un agente genotóxico, ya que al ingerir alimento contaminado, los metabolitos de AFB1 inducen daño cromosómico. En función de este problema se plantean las siguientes hipótesis de trabajo: 1. La ingesta de alimentos contaminados con AFB1 inducen daño cromosómico en cerdos. 2. La inducción, frecuencia y tipo de daño cromosómico es dependiente del tiempo de ingesta de AFB1. En este trabajo se evalúa el potencial genotóxico in vivo de la AFB1, mediante tres métodos distintos: Análisis de aberraciones cromosómicas, Ensayo de micronúcleos y Electroforesis en gel de células individuales. Se evaluarán dos grupos de cerdos en etapa postdestete, uno control y otro alimentado con pienso ad líbitum, con AFB1 a una determinada concentración. Se tomarán muestras de sangre a los 15, 30, 45 y 60 días. En concordancia con los antecedentes bibliográficos, se espera detectar la ocurrencia de daño cromosómico inducido por la ingesta de AFB1 a una determinada dosis. El efecto genotóxico debería ser detectado desde las tres técnicas elegidas para su estudio. Se espera poder establecer el tipo preponderante de daño inducido por la ingesta de AFB1 en cerdos posdestete, la sensibilidad de las diferentes técnicas empleadas para su detección y determinar si existe relación entre el tipo e intensidad de daño cromosómico y el tiempo de ingesta de AFB1. En virtud que Río Cuarto y la región es una zona agrícola-ganadera, donde la explotación porcina es de interés económico y la ocurrencia reiterada de brotes de micotoxicosis, plantea la necesidad de evaluar el potencial genotóxico de las micotoxinas. Considerando que gran parte de la información publicada sobre la toxicidad se refiere a estudios en animales experimentales de laboratorio, que pueden no reflejar sus efectos en seres humanos y en animales de granja, se considera relevante evaluar la toxicidad, particularmente la genotoxicidad en animales a campo y sus posibles consecuencias para la salud y producción porcina. El abordaje de la evaluación del daño genotóxico inducido por AFB1 desde tres ensayos distintos permitirá establecer cuál de éstos métodos reúne las condiciones más ventajosas en cuento a: sensibilidad, tiempo requerido, validez estadística, sencillez y economía, para ser el método de elección en posteriores estudios.
Resumo:
El proyecto desarrolla el tema del Paisaje Urbano contemporáneo, haciendo énfasis en la relación Río Suquía - Ciudad de Córdoba. El Plan Director de la Ciudad de Córdoba propone la recuperación integral y puesta en valor del eje natural del Río Suquía, fortaleciendo su carácter de ser el elemento natural más significativo del sistema verde urbano, que cualifica y le da identidad a la ciudad desde su fundación. Esta política demanda instrumentos innovativos y es el problema central que plantea este proyecto de investigación. Los nodos de las dos Facultades que constituyen la red, cuentan con capacidades técnicas multidisciplinares y experiencias previas en investigaciones especificas, que al vincularse se potenciarán para afrontar el tema-problema. Se pretende dar respuesta a la problemática por medio del desarrollo de un proceso metodológico, para la construcción de las bases de un Catálogo del Paisaje del Río Suquía, tomando el modelo investigativo en apogeo de un Observatorio del Paisaje. La misión básica del mismo es observar, detectar e interpretar fenómenos, demandas y tendencias. Los Catálogos del Paisaje son herramientas de los Observatorios, que sirven de referencia en los procesos de planificación territorial y urbanística. La hipótesis central del proyecto manifiesta que “se constituyen en instrumentos innovativos para establecer mecanismos de observación y criterios de valoración, protección, ordenación y gestión del Paisaje en vías de un desarrollo sostenible. El objetivo general de este proyecto es consolidar un instrumento metodológico y procedimental en vías de construir un Catálogo del Paisaje del río Suquía en la ciudad de Córdoba, para el desarrollo paisajístico sostenible, local y regional. Son objetivos específicos del proyecto: constituir el marco teórico de investigación; desarrollar una estrategia procedimental de abordaje del caso de aplicación; generar la interpretación de componentes, fenómenos, demandas y tendencias del paisaje para establecer lineamientos hacia el completamiento del Catálogo; y establecer una herramienta metodológica que sirva de referencia en los procesos de planificación paisajística territorial sustentable. Se proyecta una investigación documental y directa, sustentada en una metodología mixta, combinando los métodos de análisis, observación, inducción y síntesis, en las cuatro etapas que se plantean para su desarrollo: una etapa de carácter exploratorio y analítico; una etapa propositiva; una etapa analítica, exploratoria y evaluativa; y una etapa conclusiva. La investigación propone realizar un valioso aporte al conocimiento de la realidad local del medio ambiente urbano, y sobre la teoría general del Paisaje, haciendo énfasis en aspectos metodológicos. Es una investigación aplicada, con posibilidades concretas para la práctica del desarrollo urbano, en su transferencia a organismos locales.
Resumo:
Entender la relación entre el PIB y el transflujo de material y energía a lo largo del tiempo en las sociedades modernas es crucial para entenderla relación entre la sustentabilidad y el crecimiento económico. En este artículo se usa información disponible sobre los cambios en el uso de la energía y el comportamiento de la economía española (en el período 1960-2001) para comprobar la validez de la “hipótesis de la intensidad de uso o de la curva en forma de U invertida”. Esta es una hipótesis optimista que pretende que el crecimiento económico es benigno para el medio ambiente dado que conduce hacia la “desmaterialización” del proceso económico. La evidencia muestra que, por el contrario, España ha ido aumentando su intensidad energética en el período de tiempo analizado. ¿Vendrá este aumento seguido de una posterior caída de la variable (como sugiere la hipótesis e la U invertida)? o por el contrario debemos buscar unas hipótesis alternativas y estudiar los cambios en el consumo de energía como movimientos entre “puntos atractores”? Si este es el caso, ¿Qué sectores de la economía son los responsables de este comportamiento y cuáles son los mecanismos que lo provocan? Para poder responder a estas preguntas utilizo en este artículo tres métodos de análisis no equivalentes que se complementan el uno al otro. (1) Un análisis convencional de la intensidad energética basado en una interpretación económica; (2) Un análisis evolucionario basado en los diagramas de fases; y finalmente (3) Un análisis integrado del metabolismo de los diferentes sectores económicos.
Resumo:
Hi ha diversos mètodes d'anàlisi que duen a terme una agrupació global de la sèries de mostres de microarrays, com SelfOrganizing Maps, o que realitzen agrupaments locals tenint en compte només un subconjunt de gens coexpressats, com Biclustering, entre d'altres. En aquest projecte s'ha desenvolupat una aplicació web: el PCOPSamplecl, és una eina que pertany als mètodes d'agrupació (clustering) local, que no busca subconjunts de gens coexpresats (anàlisi de relacions linials), si no parelles de gens que davant canvis fenotípics, la seva relació d'expressió pateix fluctuacions. El resultats del PCOPSamplecl seràn les diferents distribucions finals de clusters i les parelles de gens involucrades en aquests canvis fenotípics. Aquestes parelles de gens podràn ser estudiades per trobar la causa i efecte del canvi fenotípic. A més, l'eina facilita l'estudi de les dependències entre les diferents distribucions de clusters que proporciona l'aplicació per poder estudiar la intersecció entre clusters o l'aparició de subclusters (2 clusters d'una mateixa agrupació de clusters poden ser subclusters d'altres clusters de diferents distribucions de clusters). L'eina és disponible al servidor: http://revolutionresearch.uab.es/