6 resultados para Alisamento exponencial
em Cor-Ciencia - Acuerdo de Bibliotecas Universitarias de Córdoba (ABUC), Argentina
Resumo:
El crecimiento exponencial del tráfico de datos es uno de los mayores desafíos que enfrentan actualmente los sistemas de comunicaciones, debiendo los mismos ser capaces de soportar velocidades de procesamiento de datos cada vez mas altas. En particular, el consumo de potencia se ha transformado en uno de los parámetros de diseño más críticos, generando la necesidad de investigar el uso de nuevas arquitecturas y algoritmos para el procesamiento digital de la información. Por otro lado, el análisis y evaluación de nuevas técnicas de procesamiento presenta dificultades dadas las altas velocidades a las que deben operar, resultando frecuentemente ineficiente el uso de la simulación basada en software como método. En este contexto, el uso de electrónica programable ofrece una oportunidad a bajo costo donde no solo se evaluan nuevas técnicas de diseño de alta velocidad sino también se valida su implementación en desarrollos tecnológicos. El presente proyecto tiene como objetivo principal el estudio y desarrollo de nuevas arquitecturas y algoritmos en electrónica programable para el procesamiento de datos a alta velocidad. El método a utilizar será la programación en dispositivos FPGA (Field-Programmable Gate Array) que ofrecen una buena relación costo-beneficio y gran flexibilidad para integrarse con otros dispositivos de comunicaciones. Para la etapas de diseño, simulación y programación se utilizaran herramientas CAD (Computer-Aided Design) orientadas a sistemas electrónicos digitales. El proyecto beneficiara a estudiantes de grado y postgrado de carreras afines a la informática y las telecomunicaciones, contribuyendo al desarrollo de proyectos finales y tesis doctorales. Los resultados del proyecto serán publicados en conferencias y/o revistas nacionales e internacionales y divulgados a través de charlas de difusión y/o encuentros. El proyecto se enmarca dentro de un área de gran importancia para la Provincia de Córdoba, como lo es la informática y las telecomunicaciones, y promete generar conocimiento de gran valor agregado que pueda ser transferido a empresas tecnológicas de la Provincia de Córdoba a través de consultorias o desarrollos de productos.
Resumo:
El carcinoma basocelular (CBC) representa el tumor maligno más frecuente de la piel en personas de raza blanca. Incide en mayores de 50 años de edad e infiltra los tejidos, pero rara vez ocasiona metástasis. En trabajos anteriores, observamos imágenes de cuerpos apoptóticos con MOAR (microscopía óptica de alta resolución), en pieles portadoras de CBC. Todas las células eucariotas poseen una maquinaria enzimática que interviene en la apoptosis. Estas enzimas son las proteincinasas pertenecientes a la familia de las caspasas. Se sintetizan como procaspasas, las cuales una vez activadas, actúan sobre otra caspasa en una reacción secuencial en cadena. Se reconoce que la apoptosis juega un rol importante en el balance y mantenimiento de los tejidos. Hipótesis: -Investigar si la expresión de metaloproteasas y caspasas en las células del CBC promueven y contribuyen a la progresión y extensión tumoral. Objetivos:-Profundizar el conocimiento de la conducta biológica del CBC, en referencia a la relación de los patrones de crecimiento macro y microscópicos del tumor, enfatizando en la expresión de metaloproteasas (colagenasa-3 y streptomelisina), CD-31, Ki-67, oncoproteína bcl-2 y caspasas, mediante la implementación de técnicas de inmunohistoquímica. -Analizar a nivel morfológico la presencia de cuerpos apoptóticos por medio de MOAR y determinar si influyen en la conducta biológica del tumor. Materiales y Métodos: Se realizará un estudio retrospectivo y prospectivo de pacientes asistidos en el Servicio de Dermatología del Hospital Nacional de Clínicas, desde el año 2000. Se utilizarán tomas incisionales de piel, que se fijarán en formol neutro al 10 por ciento y luego serán procesadas e incluidas en parafina y coloreadas con H-E (hematoxilina-eosina). Especimenes seleccionados, se utilizarán para técnicas de MOAR e inmunocitoquímica. El material para MOAR, se fijará en Karnovsky enfriado a pH 7,2 y se incluirá en resinas epóxicas, seccionados con un ultramicrótomo Porter BluMT1 (1micra) y coloreados con P.A.S. azul de toluidina, fuscina básica y metenamina-plata. La aplicación de las técnicas inmunohistoquímicas, se utilizaran sobre cortes desparafinados con xilol, que permitirán investigar en forma retrospectiva y prospectiva la matriz extracelular (MEC) y los elementos neoplásicos. Los anticuerpos monoclonales a utilizar serán: Colageno tipo IV clone CIV 22 M0785 monoclonal antibody (DAKO), CD44 clone E29 M0613 monoclonal antibody (DAKO), Oncoproteina bcl-2 clone 124 M0887 monoclonal antibody (DAKO), CD31: clone 35 BH11 MO631 monoclonal antibody (DAKO) K-167 clone PC10 M0879 monoclonal antibody.(DAKO) bclx y Caspasa 8. Metodología Estadística Los resultados serán evaluados mediante: a) Varianza Anova; para datos con distribución gausiana como media, SD. b) Krusal Walles; para rasgos de distribución no gausiana. c) Chi2 para determinar la diferencia significativa para proporciones. Resultados esperados: Del análisis histomorfológico cualitativo y cuantitativo de biopsias de piel con CBC, aportar determinaciones que clarifiquen la conducta biológica de este tumor.- Importancia del Proyecto: El CBC es una entidad que está aumentando su incidencia en forma exponencial, debido sobre todo a pautas sociales. No sólo ocasiona trastornos en los pacientes, sino que también, representa gastos en el sistema de salud. Asimismo, significa un desafío para la investigación. Esto permite explorar aspectos de la biología molecular, a partir de una entidad que posee características únicas.
Resumo:
En nuestro proyecto anterior aproximamos el cálculo de una integral definida con integrandos de grandes variaciones funcionales. Nuestra aproximación paraleliza el algoritmo de cómputo de un método adaptivo de cuadratura, basado en reglas de Newton-Cote. Los primeros resultados obtenidos fueron comunicados en distintos congresos nacionales e internacionales; ellos nos permintieron comenzar con una tipificación de las reglas de cuadratura existentes y una clasificación de algunas funciones utilizadas como funciones de prueba. Estas tareas de clasificación y tipificación no las hemos finalizado, por lo que pretendemos darle continuidad a fin de poder informar sobre la conveniencia o no de utilizar nuestra técnica. Para llevar adelante esta tarea se buscará una base de funciones de prueba y se ampliará el espectro de reglas de cuadraturas a utilizar. Además, nos proponemos re-estructurar el cálculo de algunas rutinas que intervienen en el cómputo de la mínima energía de una molécula. Este programa ya existe en su versión secuencial y está modelizado utilizando la aproximación LCAO. El mismo obtiene resultados exitosos en cuanto a precisión, comparado con otras publicaciones internacionales similares, pero requiere de un tiempo de cálculo significativamente alto. Nuestra propuesta es paralelizar el algoritmo mencionado abordándolo al menos en dos niveles: 1- decidir si conviene distribuir el cálculo de una integral entre varios procesadores o si será mejor distribuir distintas integrales entre diferentes procesadores. Debemos recordar que en los entornos de arquitecturas paralelas basadas en redes (típicamente redes de área local, LAN) el tiempo que ocupa el envío de mensajes entre los procesadores es muy significativo medido en cantidad de operaciones de cálculo que un procesador puede completar. 2- de ser necesario, paralelizar el cálculo de integrales dobles y/o triples. Para el desarrollo de nuestra propuesta se desarrollarán heurísticas para verificar y construir modelos en los casos mencionados tendientes a mejorar las rutinas de cálculo ya conocidas. A la vez que se testearán los algoritmos con casos de prueba. La metodología a utilizar es la habitual en Cálculo Numérico. Con cada propuesta se requiere: a) Implementar un algoritmo de cálculo tratando de lograr versiones superadoras de las ya existentes. b) Realizar los ejercicios de comparación con las rutinas existentes para confirmar o desechar una mejor perfomance numérica. c) Realizar estudios teóricos de error vinculados al método y a la implementación. Se conformó un equipo interdisciplinario integrado por investigadores tanto de Ciencias de la Computación como de Matemática. Metas a alcanzar Se espera obtener una caracterización de las reglas de cuadratura según su efectividad, con funciones de comportamiento oscilatorio y con decaimiento exponencial, y desarrollar implementaciones computacionales adecuadas, optimizadas y basadas en arquitecturas paralelas.
Resumo:
La investigación proyectual ha demostrado ser una valiosa forma de adquirir conocimientos a partir de la disciplina del diseño. Esta es una metodología derivada del método fenomenológico que busca primero acercarse al fenómeno para luego extraer conclusiones. Es decir, que la realidad con la que se encuentra el diseñador es un importantísimo componente del sistema. En el período previo (2008-2009), nos hemos dedicado a observar preferentemente la personalidad creativa del diseñador. Durante el período informado discutimos sobre cómo esta metodología incorpora los inputs del contexto de producción. ¿Cómo participan estos contenidos en las 3 fases fases detectadas en el período anterior: descriptiva, estructural y exponencial. La segunda preocupación con respecto a esta metodología es sobre lo que llamamos el output, es decir, cómo se comunica y como se transfieren los resultados. Intuimos aquí que difícilmente sea una transpolación de otras disciplinas científicas. ¿cómo se comunican los resultados? ¿cómo se aplican los resultados? ¿cómo se integran investigación y transferencia?
Resumo:
La propuesta de trabajo que se presenta pretende concretar una eficiente tarea de socialización que responde a la demanda realizada por el departamento ejecutivo de la Localidad de Las Vertientes para abordar la problemática del uso y efectos biológicos de los plaguicidas sobre los organismos y el ambiente. Del resultado de una encuesta implementada en toda la población se remite como dato significativo que independientemente del motivo, existe un 93% de la sociedad de las Vertientes a quien le interesa tener mayor conocimiento acerca de los temas relacionados con plaguicidas. En este sentido es prioritario difundir los resultados sobre las investigaciones que estudian el efecto genotóxico de las sustancias que son liberadas al ambiente, con el fin de cuidar la salud del ambiente y de las poblaciones humanas y de otros organismos, desde la prevención y promoción de la salud humana y ambiental. Para ello se propone la articulación de actividades con grupos de familias de trabajadores rurales y representantes del ámbito educativo y gubernamental. De esta manera se estará contribuyendo en forma participativa, a transferir conocimientos, sobre los usos y efectos (en especial los crónicos) de la exposición a múltiples plaguicidas de poblaciones rurales. Desde los años cuarenta, el uso de plaguicidas ha aumentado de forma exponencial. Se ha establecido que sólo un 0,1 por ciento de la cantidad de plaguicidas aplicado llega a la plaga, mientras que el restante circula por el medio ambiente, contaminando posiblemente el suelo, el agua y la biota; por lo tanto, se hace necesario caracterizar el destino final y la toxicidad no prevista de estos plaguicidas para evaluar con certeza el riesgo asociado a su uso (Carvalho et al, 1998). La problemática planteada dado el impacto que involucra, implica el abordaje desde diferentes áreas de trabajo: desde las ciencias biológicas (toxicología genética, bioquímica, medicina) acompañadas de las ciencias sociales (educación y legislación ambiental). Este abordaje parte de que el uso de plaguicidas es imprescindible en un mundo con necesidad creciente de producción de alimentos pero nos compete el empleo responsable de estos recursos para protección de la salud y del medio ambiente. Por lo tanto difundir los resultados obtenidos con referencia al problema de los usos y los efectos biológicos de los plaguicidas sobre poblaciones, lleva implícito un deber en la concienciación sobre las medidas de prevención, protección y cuidado personal tanto en el ámbito laboral como en el hogar, con la participación de las respectivas instancias gubernamentales y con mecanismos que permitan ampliar dicho abordaje. La capacitación sobre los riesgos de exposición a plaguicidas debe ser la orientación principal para plantear problemas vinculados a su uso y se constituye en una estrategia que resulta especialmente apropiada en este tipo de riesgo para la salud. La educación y la información es la herramienta más importante para el cambio de conductas. Carvalho, F., N. Zhong, y S. Tavarez y Klaine 1998. Rastreo de plaguicidas en los trópicos. Boletín del OEIA Nº 40.
Resumo:
En este proyecto se investigan 3 subáreas de Inteligencia Artificial y sus aplicaciones en contextos educativos. Las 3 áreas son 1) agentes conversacionales automatizados que actúan como instructores virtuales o sistemas de tutoring automatizado, 2) asistentes virtuales que llevan a cabo una tarea dada bajo la instrucción de un aprendiz avanzado, y 3) plataformas de programación de chatbots como una herramienta educativa para enseñar conceptos básicos de ciencias de la computación. La hipótesis de este proyecto es que tanto los tutores como los asistentes conversacionales automatizados deben incluir una representación contextual rica que identifique lo entendido por el aprendiz hasta el momento y ser capaces de realizar inferencias sobre ella para poder guiar mejor su aprendizaje. Los objetivos de este proyecto incluyen el desarrollo de algoritmos de inferencia contextuales apropiados para instructores y asistentes virtuales, el desarrollo de algoritmos para la programación simplificada de chatbots, la evaluación de estos algoritmos en pruebas piloto en escuelas y la realización de un curso online abierto masivo para estudiantes de secundario del programa Conectar Igualdad que quieran aprender sobre Inteligencia Artificial y Ciencias de la Computación. El método a utilizar será la realización de recolección de corpus (interacciones humano-humano de las interacciones tutor-aprendiz), la aplicación de técnicas de procesamiento de lenguaje natural como la generación por selección y la interpretación por clustering y maximum entropy models usando características sintácticas, semánticas y pragmáticas. Se desarrollarán los algoritmos siguiendo una metodología estándar de Ingeniería de Software y se evaluarán en experiencias piloto en escuelas secundarias así como en un curso online abierto y masivo. Además se dictará un curso de capacitación docente para la incorporación de las tecnologías producidas a sus cursos. Como resultado se espera la contribución al área de Inteligencia Artificial con aplicaciones en Educación de algoritmos evaluados empíricamente en entornos educativos reales del nivel medio. Además, se espera contribuir a las metodologías de enseñanza de Ciencias de la Computación en el nivel medio. Este proyecto es relevante a la realidad nacional y mundial de falta de recursos humanos formados en las Ciencias de la Computación y al crecimiento mundial que el área de Inteligencia Artificial en general y de Sistemas de diálogo (o interfaces conversacionales) en particular ha tenido en los últimos años con el crecimiento exponencial de la tecnología en la vida diaria.