26 resultados para inversores de potencia
Resumo:
El control de propiedades hidrodinámicas capaces de influir en la mecánica de ruptura y poración de sistemas lamelares o membranas es de fundamental interés para diferentes aplicaciones biotecnológicas. Resulta de particular interés la conexión entre los procesos microscópicos relacionados al tipo de moléculas o unidades básicas, el orden determinado en el auto-ensamblado de las mismas y la dinámica local del sistema, con las propiedades físicas que determinan el comportamiento macroscópico bajo estimulación acústica. Resultados logrados recientemente sugieren la existencia de resonancias hidrodinámicas que podrian ser utilizadas para lograr la inestabilidad del sistema a baja potencia acústica. Se realizaran estudios experimentales utilizando principalmente técnicas que combinan resonancia magnética nuclear (RMN) y la sonicación de la muestra. También se realizarán estudios teóricos y simulaciones numéricas que permitan modelar los sistemas bajo estudio. Se propone dar continuidad al desarrollo de una técnica de relaxometría magnética nuclear en la cual se estimula acústicamente a la muestra durante el proceso de relajación magnética nuclear, y continuar la implementación de técnicas de RMN con resolución espacial que permitan complementar los estudios mencionados. Se espera comprender los mecanismos físicos que determinan la estabilidad de fases lamelares, logrando un modelo verificable y consistente que permita relacionar las propiedades mecánicas e hidrodinámicas con las propiedades de orden y dinámica molecular. Asimismo, se espera lograr avances en el desarrollo de las técnicas experimentales involucradas. La importancia del proyecto radica en el enfoque del problema. A diferencia de casi la totalidad de los estudios reportados, nuestro interés se enfoca en mecanismos de interacción entre la membrana y el campo acústico que sean eficientes a baja potencia acústica, en un régimen donde los gradientes térmicos y la cavitación sean despreciables.
Resumo:
Este proyecto propone extender y generalizar los procesos de estimación e inferencia de modelos aditivos generalizados multivariados para variables aleatorias no gaussianas, que describen comportamientos de fenómenos biológicos y sociales y cuyas representaciones originan series longitudinales y datos agregados (clusters). Se genera teniendo como objeto para las aplicaciones inmediatas, el desarrollo de metodología de modelación para la comprensión de procesos biológicos, ambientales y sociales de las áreas de Salud y las Ciencias Sociales, la condicionan la presencia de fenómenos específicos, como el de las enfermedades.Es así que el plan que se propone intenta estrechar la relación entre la Matemática Aplicada, desde un enfoque bajo incertidumbre y las Ciencias Biológicas y Sociales, en general, generando nuevas herramientas para poder analizar y explicar muchos problemas sobre los cuales tienen cada vez mas información experimental y/o observacional.Se propone, en forma secuencial, comenzando por variables aleatorias discretas (Yi, con función de varianza menor que una potencia par del valor esperado E(Y)) generar una clase unificada de modelos aditivos (paramétricos y no paramétricos) generalizados, la cual contenga como casos particulares a los modelos lineales generalizados, no lineales generalizados, los aditivos generalizados, los de media marginales generalizados (enfoques GEE1 -Liang y Zeger, 1986- y GEE2 -Zhao y Prentice, 1990; Zeger y Qaqish, 1992; Yan y Fine, 2004), iniciando una conexión con los modelos lineales mixtos generalizados para variables latentes (GLLAMM, Skrondal y Rabe-Hesketh, 2004), partiendo de estructuras de datos correlacionados. Esto permitirá definir distribuciones condicionales de las respuestas, dadas las covariables y las variables latentes y estimar ecuaciones estructurales para las VL, incluyendo regresiones de VL sobre las covariables y regresiones de VL sobre otras VL y modelos específicos para considerar jerarquías de variación ya reconocidas. Cómo definir modelos que consideren estructuras espaciales o temporales, de manera tal que permitan la presencia de factores jerárquicos, fijos o aleatorios, medidos con error como es el caso de las situaciones que se presentan en las Ciencias Sociales y en Epidemiología, es un desafío a nivel estadístico. Se proyecta esa forma secuencial para la construcción de metodología tanto de estimación como de inferencia, comenzando con variables aleatorias Poisson y Bernoulli, incluyendo los existentes MLG, hasta los actuales modelos generalizados jerárquicos, conextando con los GLLAMM, partiendo de estructuras de datos correlacionados. Esta familia de modelos se generará para estructuras de variables/vectores, covariables y componentes aleatorios jerárquicos que describan fenómenos de las Ciencias Sociales y la Epidemiología.
Resumo:
El crecimiento exponencial del tráfico de datos es uno de los mayores desafíos que enfrentan actualmente los sistemas de comunicaciones, debiendo los mismos ser capaces de soportar velocidades de procesamiento de datos cada vez mas altas. En particular, el consumo de potencia se ha transformado en uno de los parámetros de diseño más críticos, generando la necesidad de investigar el uso de nuevas arquitecturas y algoritmos para el procesamiento digital de la información. Por otro lado, el análisis y evaluación de nuevas técnicas de procesamiento presenta dificultades dadas las altas velocidades a las que deben operar, resultando frecuentemente ineficiente el uso de la simulación basada en software como método. En este contexto, el uso de electrónica programable ofrece una oportunidad a bajo costo donde no solo se evaluan nuevas técnicas de diseño de alta velocidad sino también se valida su implementación en desarrollos tecnológicos. El presente proyecto tiene como objetivo principal el estudio y desarrollo de nuevas arquitecturas y algoritmos en electrónica programable para el procesamiento de datos a alta velocidad. El método a utilizar será la programación en dispositivos FPGA (Field-Programmable Gate Array) que ofrecen una buena relación costo-beneficio y gran flexibilidad para integrarse con otros dispositivos de comunicaciones. Para la etapas de diseño, simulación y programación se utilizaran herramientas CAD (Computer-Aided Design) orientadas a sistemas electrónicos digitales. El proyecto beneficiara a estudiantes de grado y postgrado de carreras afines a la informática y las telecomunicaciones, contribuyendo al desarrollo de proyectos finales y tesis doctorales. Los resultados del proyecto serán publicados en conferencias y/o revistas nacionales e internacionales y divulgados a través de charlas de difusión y/o encuentros. El proyecto se enmarca dentro de un área de gran importancia para la Provincia de Córdoba, como lo es la informática y las telecomunicaciones, y promete generar conocimiento de gran valor agregado que pueda ser transferido a empresas tecnológicas de la Provincia de Córdoba a través de consultorias o desarrollos de productos.
Resumo:
La utilización de energía eólica es un hecho cada vez más común en nuestro mundo como respuesta a mitigar el creciente aumento de demanda de energía, los aumentos constantes de precio, la escasez de combustibles fósiles y los impactos del cambio climático, los que son cada día más evidentes.Consecuentemente, el interés por la participación de esta nueva forma de generación de energía en sistema eléctrico de potencia ha aumentado considerablemente en los últimos años. La incorporación de generación de origen eólico en el sistema eléctrico de potencia requiere de un análisis detallado del sistema eléctrico en su conjunto, considerando la interacción entre parques y unidades de generación eólica, plantas de generación convencional y el sistema eléctrico de potencia. La integración de generación de origen renovable en el sistema eléctrico de potencia convencional presenta nuevos desafíos los que pueden ser atribuidos a características propias de este tipo de generación, por ejemplo la fluctuación de energía debido a la naturaleza variable del viento, la naturaleza distribuida de la generación eólica y las características constructivas y método de conexión de los distintos modelos de turbinas eólicas al sistema.La finalidad de este proyecto de investigación consiste en investigar el impacto sobre un mercado de sistema eléctrico competitivo causado por el agregado de generación de origen eolico. Como punto de partida se pretende realizar modelos de plantas de generacion eolica para luego incorporarlos a los modelos de sistemas eléctricos y realizar estudios de de despacho económico, flujo de cargas, análisis transitorio y estudios dinámicos del sistema.
Resumo:
La contabilidad a través de los estados financieros, concebidos como instrumentos que proporcionan un resumen de la situación patrimonial de las organizaciones y de sus evoluciones económicas y financieras, cumple un trascendente rol en la sociedad que consiste en suministrar información a ser utilizada en los procesos decisorios de los principales agentes que intervienen en la economía (inversores, acreedores, empleados, sindicados, mercados de valores, clientes, proveedores, estado, etc.). La importancia que fueron adquiriendo los estados financieros, como satisfactores de las demandas informativas de los interesados en su contenido, produjo la imperiosa necesidad de contar con una seguridad razonable de que la información incorporada en los mismos se encuentre libre de errores u omisiones significativos, que pudieran distorsionar las decisiones a ser tomadas por sus usuarios. Fue de este modo que la auditoría de estados financieros, dentro de los servicios de que agregan credibilidad a la información, se erigió en el proceso destinado a tal fin. En este contexto, la auditoría de estados financieros se convirtió en el proceso estructurado, llevado a cabo por un auditor independiente, con vistas a arribar a una conclusión respecto a si la información contenida por los estados financieros, refleja razonablemente o no la situación patrimonial y la evolución económica y financiera de una organización por el período que abarcan, conforme a las disposiciones consagradas en ordenamiento contable utilizado como referencia. El riesgo de auditoría, concebido como la medida que refleja la posibilidad de que el auditor arribe a una conclusión equivocada respecto de la forma en que los estados contables reflejan la situación patrimonial y la evolución económica y financiera por el período que comprenden, adquiere una relevancia inusitada dentro del proceso de auditoría de estados financieros. Los principales ordenamientos en materia de auditoría de estados financieros proponen una metodología de cálculo del riesgo de auditoría en donde el mismo se concibe como el producto de los siguientes componentes: a) riesgo inherente (posibilidad de que la información contenida por los estados financieros contenga errores u omisiones significativas en si misma), b) riesgo de falta de control (posibilidad de que el sistema de control interno no prevenga, detecte o corrija errores u omisiones propios de la información contenida por los estados financieros en si misma), y c) riesgo de falta de detección (posibilidad de que información con errores u omisiones no siendo prevenida, detectada o corregida por el sistema de control interno tampoco sea advertida como consecuencia de la aplicación de los procedimientos de auditoría). Existió un primer enfoque en relación a forma de determinación del riesgo de auditoría que se caracterizó por: a) una concepción reducida de los posibles factores determinantes de los diferentes tipos de riesgos, b) una visión transaccional y desintegrada de la organización y de la información, y c) una valoración de los riesgos apoyada fuertemente en el criterio profesional del auditor. La referida orientación en relación a los aspectos metodológicos de determinación del riesgo de auditoría, denominada “enfoque tradicional”, fue identificada por académicos y profesionales, como la principal causa del fracaso de la auditoría de estados financieros en reconocidos escándalos financieros (casos: Enron, Worldcom, Parmalat, etc.) que trajeron aparejadas un conjunto de consecuencias sociales de profundo impacto (cuantiosas pérdidas económicas, descrédito de la auditoría como proceso que agrega credibilidad a la información contenida en los estados financieros, sanciones de naturaleza penal, civil y profesional a auditores e integrantes de organismos encargados de controlar la ejecución de auditorias, etc.) A los efectos de superar las deficiencias del enfoque tradicional, relacionado con la metodología de determinación del riesgo de auditoría, se desarrolló un nuevo enfoque, conocido como auditoría basada en riesgos, el cual se caracteriza por: a) una concepción amplia de los posibles factores que inciden sobre los componentes del riesgo de auditoría, b) una visión estratégica, sistémica e integrada de la organización y de la información generada por ella y c) la pretensión de la utilización de herramientas objetivas en la valoración de riesgos. La auditoría basada en riesgos ataca el corazón mismo de la auditoría de estados financieros que es el modelo de riesgos de auditoría, haciendo foco en los riesgos de negocio de las organizaciones. El presente proyecto de investigación tiene la pretensión de colaborar como un eslabón más en la instauración del enfoque de auditoría basada en riesgos, aportando un modelo integrado de cuantificación de riesgos que identifique el grado de influencia que cada uno de los factores determinantes del riesgo de negocio tiene respecto de cada uno de los componentes que definen al riesgo de auditoría.
Resumo:
El proyecto inicialmente se denominó “Análisis y optimización del radio enlace en un sistema RFID”. A medida que el mismo fue avanzando, principalmente en el desarrollo de 2 planes de doctorado (Proyectos de Tesis Doctoral de Juan Castagnola y Agustín Laprovitta), los objetivos particulares fueron ajustándose a cada uno de estos trabajos. Así pues, los nuevos objetivos planteados para el proyecto son: a) Estudiar, generar modelos, simular e implementar nuevas configuraciones en la etapas de recepción de los transceptores, para lograr mayor alcance con menos potencia; b) Desarrollar metodologías de test para sistemas de redes inalámbricas de sensores, con énfasis en nodos activos y pasivos diseñados con circuitos analógicos y digitales configurables y componentes comerciales; c) Proponer estrategias de test de bajo consumo y alto desempeño focalizadas en las secciones analógicas, de conversión y digitales configurables del nodo. Además de la realización de los trabajos de tesis doctoral mencionados, en el grupo de investigación se encuentran alumnos de la carrera de Ingeniería Electrónica realizando sus trabajos finales de grado, los mismos se orientaron a trabajos de investigación e implementación en el área de las redes inalámbricas de sensores remotos. Los trabajos realizados en el invernadero y en el secadero de embutidos, están orientados también a esta misma temática. Por estos motivos se decidió el cambio en la denominación del proyecto, por: “Análisis y optimización de redes inalámbricas de sensores remotos”.
Resumo:
El objetivo general de esta propuesta es investigar y desarrollar nuevos convertidores electrónicos de potencia, más eficientes, confiables y robustos, para controlar el flujo de energía eléctrica en Sistemas Híbridos. Estos sistemas pueden alimentarse de almacenadores y generadores de CC, como por ejemplo baterías, ultracapacitores y celdas de combustible. Como objetivos específicos se pretende proponer nuevas topologías de convertidores electrónicos de potencia, incluyendo los controladores digitales, con las siguientes características: • Alto rendimiento, • Tolerantes a fallas, • Desarrollo de estrategias para la detección y diagnóstico de fallas. Se propone modelar y realizar simulaciones de las nuevas propuestas con el objetivo de compararlas con otras ya existentes. Con el objetivo de validar experimentalmente los resultados teóricos y de simulación también se propone implementar prototipos demostrativos. La implementación de los citados convertidores se realizará con dispositivos semiconductores de potencia y componentes magnéticos de alta frecuencia para maximizar las relaciones potencia/volumen y/o potencia/peso del sistema.
Resumo:
Al recordar que por federalismo se entiende la forma de Estado donde coexiste un poder central con poderes regionales es natural que exista en potencia un conflicto entre ambos tipos o polos de poder, aun en el caso que se hayan definido con precisión las funciones que corresponde a uno. El conflicto puede y suele volverse activo por una inequitativa distribución de los recursos públicos entre ambos niveles en relación a los bienes o servicios públicos prestados por cada uno. Pero esta no es la única mirada que debería tenerse en cuenta para medir el mal desempeño de un sistema federal de gobierno. Aquí nos hemos de ocupar más específicamente de dos distorsiones que tienen lugar dentro del federalismo fiscal argentino y que no son incompatibles. Una es la asimetría en la redistribución geográfica de los ingresos públicos. La otra deformación fiscal del federalismo proviene de la existencia de un sistema de previsión social muy interdependiente de la fiscalidad. Nuestra tesis es que la persistencia de estas distorsiones obedece a la existencia de corrupciones políticas. Por ello nos planteamos las siguientes hipótesis: 1.- La distorsión en el sistema federal argentino responde en parte a a) Una asimetría en la redistribución geográfica de los ingresos públicos recaudados centralmente, cuya desproporción es alta, injustificada y permanente y b) la interdependencia de los recursos gubernamentales destinados al gasto común con el sistema de recursos del sistema de la seguridad social. 2.- Ambas distorsiones son causadas por corrupciones políticas y no coadyuvan a cerrar la brecha en la distribución personal del ingreso en las regiones pobres y favorecidas ni a mejorar los haberes jubilatorios nacionales Estas hipótesis han sido planeadas en pos de alcanzar los objetivos generales de: analizar la deformación del federalismo argentino producida por distorsiones en la redistribución del ingreso público nacional e indagar sobre su relación con corrupciones políticas. Y, específicamente: a.- Determinar con información cuantitativa propia, la magnitud de la asimetría en la redistribución geográfica de la recaudación nacional, período 2000 – 2011; b.- describir la perturbación que ocasiona la interdependencia de los recursos gubernamentales con el sistema de previsión social, desde la década de 1940 a la actualidad y c.- ofrecer un modelo de corrupción política que ayude a comprender las distorsiones anteriores en el federalismo argentino. Esta es una investigación con diseño no experimental que, en términos de los objetivos específicos recién dados, ha de conjugar: La construcción de una serie histórica, para cada año del período 2000 – 2011, de la distribución regional de los flujos fiscales netos que opera el gobierno nacional cuyos detalles metodológicos han sido explicitados en trabajos previos del mismo equipo [Ej.: Ruarte Bazán, R. et al, (2009) Hacia una interpretación del federalismo argentino actual. Edición en CD. 42ª Jornadas Internacionales de Finanzas Públicas. FCE UNC. Córdoba. 16 p], con la recopilación de normas jurídicas y/o información relacionada, referidas a las transferencias monetarias del Sistema de Seguridad Social al Tesoro Nacional y viceversa y la indagación sobre modelos teóricos y datos existentes acerca de corrupción política y federalismo y su adecuación al caso argentino. Como se espera verificar nuestra tesis general y las hipótesis de trabajo mencionadas, el impacto puede ser muy importante ya que introduce y suma la dimensión geográfica o regional como determinante de la corrupción política y consecuentemente proporcionaría una plataforma de ataque a este vicio burocrático, siempre que exista la suficiente decisión política de los gobiernos y residentes perjudicados por su existencia. l
Resumo:
El avance en la potencia de cómputo en nuestros días viene dado por la paralelización del procesamiento, dadas las características que disponen las nuevas arquitecturas de hardware. Utilizar convenientemente este hardware impacta en la aceleración de los algoritmos en ejecución (programas). Sin embargo, convertir de forma adecuada el algoritmo en su forma paralela es complejo, y a su vez, esta forma, es específica para cada tipo de hardware paralelo. En la actualidad los procesadores de uso general más comunes son los multicore, procesadores paralelos, también denominados Symmetric Multi-Processors (SMP). Hoy en día es difícil hallar un procesador para computadoras de escritorio que no tengan algún tipo de paralelismo del caracterizado por los SMP, siendo la tendencia de desarrollo, que cada día nos encontremos con procesadores con mayor numero de cores disponibles. Por otro lado, los dispositivos de procesamiento de video (Graphics Processor Units - GPU), a su vez, han ido desarrollando su potencia de cómputo por medio de disponer de múltiples unidades de procesamiento dentro de su composición electrónica, a tal punto que en la actualidad no es difícil encontrar placas de GPU con capacidad de 200 a 400 hilos de procesamiento paralelo. Estos procesadores son muy veloces y específicos para la tarea que fueron desarrollados, principalmente el procesamiento de video. Sin embargo, como este tipo de procesadores tiene muchos puntos en común con el procesamiento científico, estos dispositivos han ido reorientándose con el nombre de General Processing Graphics Processor Unit (GPGPU). A diferencia de los procesadores SMP señalados anteriormente, las GPGPU no son de propósito general y tienen sus complicaciones para uso general debido al límite en la cantidad de memoria que cada placa puede disponer y al tipo de procesamiento paralelo que debe realizar para poder ser productiva su utilización. Los dispositivos de lógica programable, FPGA, son dispositivos capaces de realizar grandes cantidades de operaciones en paralelo, por lo que pueden ser usados para la implementación de algoritmos específicos, aprovechando el paralelismo que estas ofrecen. Su inconveniente viene derivado de la complejidad para la programación y el testing del algoritmo instanciado en el dispositivo. Ante esta diversidad de procesadores paralelos, el objetivo de nuestro trabajo está enfocado en analizar las características especificas que cada uno de estos tienen, y su impacto en la estructura de los algoritmos para que su utilización pueda obtener rendimientos de procesamiento acordes al número de recursos utilizados y combinarlos de forma tal que su complementación sea benéfica. Específicamente, partiendo desde las características del hardware, determinar las propiedades que el algoritmo paralelo debe tener para poder ser acelerado. Las características de los algoritmos paralelos determinará a su vez cuál de estos nuevos tipos de hardware son los mas adecuados para su instanciación. En particular serán tenidos en cuenta el nivel de dependencia de datos, la necesidad de realizar sincronizaciones durante el procesamiento paralelo, el tamaño de datos a procesar y la complejidad de la programación paralela en cada tipo de hardware. Today´s advances in high-performance computing are driven by parallel processing capabilities of available hardware architectures. These architectures enable the acceleration of algorithms when thes ealgorithms are properly parallelized and exploit the specific processing power of the underneath architecture. Most current processors are targeted for general pruposes and integrate several processor cores on a single chip, resulting in what is known as a Symmetric Multiprocessing (SMP) unit. Nowadays even desktop computers make use of multicore processors. Meanwhile, the industry trend is to increase the number of integrated rocessor cores as technology matures. On the other hand, Graphics Processor Units (GPU), originally designed to handle only video processing, have emerged as interesting alternatives to implement algorithm acceleration. Current available GPUs are able to implement from 200 to 400 threads for parallel processing. Scientific computing can be implemented in these hardware thanks to the programability of new GPUs that have been denoted as General Processing Graphics Processor Units (GPGPU).However, GPGPU offer little memory with respect to that available for general-prupose processors; thus, the implementation of algorithms need to be addressed carefully. Finally, Field Programmable Gate Arrays (FPGA) are programmable devices which can implement hardware logic with low latency, high parallelism and deep pipelines. Thes devices can be used to implement specific algorithms that need to run at very high speeds. However, their programmability is harder that software approaches and debugging is typically time-consuming. In this context where several alternatives for speeding up algorithms are available, our work aims at determining the main features of thes architectures and developing the required know-how to accelerate algorithm execution on them. We look at identifying those algorithms that may fit better on a given architecture as well as compleme
Resumo:
La organización de la producción, procesamiento, comercialización, y financiamiento de las operaciones involucradas en la oferta de hongos comestibles se caracterizan por tener Puntos de Equilibrio (PE) diferentes. El PE más alto se constituye en la restricción a salvar al momento de considerar la inversión en un emprendimiento nuevo. En la mayoría de las situaciones estos PE críticos terminan por desalentar la inversión. Se dice que el cultivo de hongos representa una industria biotecnológica importante que se ha ampliado considerablemente en todo el mundo en las últimas décadas; se enfatiza que los hongos sirven como delicias para el consumo humano y como nutracéuticos (alimentos que curan), que los cuerpos fructíferos de los hongos contienen sustancias de varios reinos muy valoradas por sus propiedades medicinales, sabores y perfumes. Sin embargo, el potencial económico de los hongos está lejos de ser aprovechado. El problema hasta ahora es que solo algunas especies pueden ser inducidas a fructificar en cultivos, y si bien el cultivo de las setas es una tecnología adaptable a diferentes condiciones que van desde una escala comercial de importancia hasta una forma rústica de traspatio en comunidades rurales, con substratos agroindustriales o bien con solo material vegetal, cada uno de estos casos presenta dificultades cuando son traspasados a nuestra región; o bien no son rentables porque la escala de producción manejable está mas allá de las capacidades de pequeños y medianos productores o bien porque las inversiones iniciales exceden las posibilidades del mercado. Si analizamos las causas que ha llevado al fracaso de emprendimientos productivos de hongos encontraremos las mismas que se esgrimen al comienzo. Lo que puede hacer que sea un cultivo sustentable es la búsqueda de nuevas alternativas tecnológicas y de trabajo. Este Proyecto de Investigación Orientado (PIO) plantea como objetivo general estudiar un Modelo de Negocio que sirva para salvar las restricciones impuestas por la existencias de PE mínimos en producción, comercialización, financiamiento, investigación y desarrollo para la diversificación, y entrepreneurship optimizando la disponibilidad de recursos existentes. Para alcanzar este cometido el PIO propuesto busca articular en red las áreas de Economía de los Negocios y las Organizaciones (ENO), la Ingeniería Química (IQ), la Ingeniería en Telecomunicaciones (IT), y la Microbiología (Mic). Cada una de ellas se concentraría en la búsqueda de alternativas técnicas para bajar los PE implicados en este tipo de negocios. Retomando el objetivo general de este PIO podemos afirmar que el objetivo particular de este PIO es elaborar y divulgar un modelo de negocio para la producción y comercialización de hongos comestibles a pequeña escala y para la coordinación de pequeños productores, a partir de la optimización de los diversos procesos y actividades económicas internas de producción, de manera tal que se minimice el punto de equilibrio con el fin que pequeños inversores puedan iniciarse en la producción de en forma rentable y sustentable generando mayor riqueza para la región incrementando el ingreso y creando oportunidades de empleo.
Resumo:
Continuando con nuestra búsqueda de biopesticidas de potencia relevante en plantas nativas, en este proyecto nos concentraremos en encontrar sustancias que controlen eficientemente hormigas cortadoras, moscas, cucarachas, mosquitos y malezas. En la primera parte del presente proyecto se determinará mediante aislamiento bioguiado, los principios activos de las plantas que en un trabajo anterior, mostraron mayor inhibición del forrajeo de la hormiga Acromyrmex lundi, Aristolochia argentina y Lantana grisebachii, como también de aquellas que inhibieron al hongo simbionte aislado del nido, A. argentina y Flourensia oolepis. Posteriromente se evaluará la efectividad de estos extractos y principios activos a campo contra A. lundi determinando dosis efectivas para inhibir el forrajeo y/o el desarrollo del hongo simbionte. Luego se extenderá los resultados a otras especies de hormigas cortadoras como A. crassispinus y A. striatus. En segundo lugar proponemos el desarrollo de una metodología para aumentar la efectividad de aceites esenciales (AE) y terpenos (T) contra distintas plagas domésticas aprovechando la interacción de componentes de aceites esenciales en la intoxicación del insecto. Hemos demostrado que Musca domestica al ser fumigada con T puros, por separado, oxida a la mayoría de ellos mediante citocromo P450. Sin embargo cuando es fumigada con AE (mezcla de T) detoxifica al T mayoritario preferentemente, mientras que los T minoritarios están en condiciones de intoxicar al insecto ya que no serían blanco del P450. En este proyecto determinaremos la DL50 de 10 T en moscas tratadas y sin tratar con un inhibidor de P450 (butóxido de piperonilo). Con estos datos podremos elegir mezclas de terpenos tales que uno de ellos sea blanco de P450 y otro/s intoxiquen al insecto. Nos proponemos verificar este mecanismo en M. domestica y luego extenderlo a otros insectos domésticos (cucarachas, mosquitos). Este estudio facilitará el desarrollo de bioinsecticidas mas eficientes para cada insecto disminuyendo sus costos y favoreciendo su aplicación futura. En la tercera parte de este proyecto proponemos aislar los principios activos fitotóxicos de Cortadeira rudiuscula y Ophryosporus charua, cuyos extractos inhibieron selectivamente la germinación de mono- y dicotiledóneas, respectivamente. También se determinará el tiempo de vida media en suelo, y la dosis efectiva a campo con el fin de evaluar a dichas especies como futuros herbicidas naturales selectivos.