999 resultados para Tecnología biomédica
Resumo:
Se parte de la hipótesis de que para lograr satisfacer las necesidades de salud de la población, es preciso, entre otras cosas, que los servicios de salud utilicen tecnologías apropiadas. El problema que surge es el de definir lo que se considera "adecuado" y quiénes lo definen. Para ello se ha efectuado una investigación que permite detectar y analizar comparativamente la definición que, desde las perspectivas de la población y de los profesionales, se hace de la tecnología apropiada en obstetricia, como así también la tecnología utilizada en los distintos sectores de atención (público, de obras sociales y privado). Se presentan algunos datos referidos a dos aspectos de la atención: Utilización de técnicas y procedimientos biomédicos (pujar, jadear, episiotomía, anestesia, etc.) y consideración de las relaciones interpersonales en el proceso de atención (continuidad de la atención, rol del padre, favorecimiento del vínculo madre-hijo, etc.). Se observa que se utilizan modalidades de atención diferenciales según sectores de atención: son más tecnologizadas y medicalizadas en el sector privado. A la vez en éste se consideran más las relaciones interpersonales que favorecen la atención. Además, las opiniones de los profesionales, en cuanto a lo que cosideran adecuado, concuerdan más con las de las madres de dicho sector, siendo sus necesidades satisfechas en mayor medida que las de las demás. Resulta así que las necesidades de las mayorías - las que se atienden en servicios privados y de obras sociales - son cubiertas en menor medida, no qual se opone a un enfoque de riesgo que vuelca sus recursos en los grupos considerados vulnerables.
Resumo:
Monográfico con el título: 'La gestión estratégica de la Educación Superior : retos y oportunidades'. Resumen basado en el de la publicación
Resumo:
El presente Trabajo de Fin de Grado es fruto de la colaboración en una investigación sobre la hipertermia magnética entre el Centro de Electrónica Industrial de la ETSII UPM (CEI) y el Centro de Tecnología Biomédica UPM (CTB). La hipertermia magnética es un tratamiento contra el cáncer que se encuentra en fase de desarrollo en distintos lugares alrededor del mundo. Se trata de una terapia que consiste en elevar la temperatura de las células cancerígenas hasta valores de entre 42 y 46ºC con el fin de destruirlas. Esto es posible pues por lo general, las células cancerígenas presentan una mayor sensibilidad ante efectos de hipertermia que el resto de células, por lo que una vez alcanzada la temperatura deseada se destruirían las células anómalas y las sanas quedarían intactas. Si se induce al paciente fiebre hasta los 39 ºC, tan sólo sería necesario alcanzar incrementos de temperatura de 3 o 4ºC para que el tratamiento tuviera éxito. El calentamiento se produce gracias al movimiento de nanopartículas magnéticas (NPMs) situadas en dichas células mediante técnicas médicas ya estudiadas. A su vez este movimiento se da gracias a la aplicación de un campo magnético sobre las NPMs. El equipo electrónico del que se dispone en esta investigación y que genera el campo magnético, está constituido esencialmente por un inversor de potencia en puente completo con carga inductiva, una placa de control y una fuente de tensión continua. A lo largo de este trabajo se abordarán y estudiarán varias cuestiones en línea con la continuidad de la investigación en este tratamiento y en aspectos de la misma como el estudio del equipo disponible y su mejora. En primer lugar se lleva a cabo un estudio de caracterización térmica del equipo del que se dispone, con el objetivo de conocer los parámetros de los que depende su funcionamiento y que permitirán verificar y dar consistencia a los resultados de los posteriores ensayos que con él se harán. Así mismo se realiza una fase de ensayos con el objetivo de optimizar el equipo, determinando cuales son los parámetros más relevantes y los valores de los mismos, que llevan al equipo a su máximo rendimiento en términos de incrementos de temperatura de las NPMs y por tanto hacia el éxito de la terapia. Tras la caracterización y optimización del equipo de hipertermia, se diseña una nueva fase de ensayos que tiene como fin la comparación de los resultados experimentales con el modelo físico teórico de calentamiento de las NPMs. Además se busca la comprobación de ciertas hipótesis extraídas de los mismos resultados experimentales, como la influencia de la forma de onda de la señal excitadora en el incremento de temperatura. Finalmente y con el fin de mejorar el rendimiento del equipo, se elabora un conjunto de posibles geometrías para la carga inductiva que incluya un núcleo de hierro, pues hasta el momento la bobina de la que se disponía tenía núcleo de aire. Se simulan las nuevas geometrías de la bobina con núcleo de hierro y se estudia cómo influyen los cambios en el campo magnético. Los avances en la investigación llevados a cabo en este Trabajo de Fin de Grado han permitido dar un paso más en el rendimiento, la fiabilidad de resultados y la mejora del equipo de hipertermia magnética, abriendo las puertas a ensayos in vitro y posteriormente in vivo para una terapia que podría estar más cerca de dar tratamiento eficaz a una de las enfermedades más implacables de nuestro tiempo.
Resumo:
En el mundo actual las aplicaciones basadas en sistemas biométricos, es decir, aquellas que miden las señales eléctricas de nuestro organismo, están creciendo a un gran ritmo. Todos estos sistemas incorporan sensores biomédicos, que ayudan a los usuarios a controlar mejor diferentes aspectos de la rutina diaria, como podría ser llevar un seguimiento detallado de una rutina deportiva, o de la calidad de los alimentos que ingerimos. Entre estos sistemas biométricos, los que se basan en la interpretación de las señales cerebrales, mediante ensayos de electroencefalografía o EEG están cogiendo cada vez más fuerza para el futuro, aunque están todavía en una situación bastante incipiente, debido a la elevada complejidad del cerebro humano, muy desconocido para los científicos hasta el siglo XXI. Por estas razones, los dispositivos que utilizan la interfaz cerebro-máquina, también conocida como BCI (Brain Computer Interface), están cogiendo cada vez más popularidad. El funcionamiento de un sistema BCI consiste en la captación de las ondas cerebrales de un sujeto para después procesarlas e intentar obtener una representación de una acción o de un pensamiento del individuo. Estos pensamientos, correctamente interpretados, son posteriormente usados para llevar a cabo una acción. Ejemplos de aplicación de sistemas BCI podrían ser mover el motor de una silla de ruedas eléctrica cuando el sujeto realice, por ejemplo, la acción de cerrar un puño, o abrir la cerradura de tu propia casa usando un patrón cerebral propio. Los sistemas de procesamiento de datos están evolucionando muy rápido con el paso del tiempo. Los principales motivos son la alta velocidad de procesamiento y el bajo consumo energético de las FPGAs (Field Programmable Gate Array). Además, las FPGAs cuentan con una arquitectura reconfigurable, lo que las hace más versátiles y potentes que otras unidades de procesamiento como las CPUs o las GPUs.En el CEI (Centro de Electrónica Industrial), donde se lleva a cabo este TFG, se dispone de experiencia en el diseño de sistemas reconfigurables en FPGAs. Este TFG es el segundo de una línea de proyectos en la cual se busca obtener un sistema capaz de procesar correctamente señales cerebrales, para llegar a un patrón común que nos permita actuar en consecuencia. Más concretamente, se busca detectar cuando una persona está quedándose dormida a través de la captación de unas ondas cerebrales, conocidas como ondas alfa, cuya frecuencia está acotada entre los 8 y los 13 Hz. Estas ondas, que aparecen cuando cerramos los ojos y dejamos la mente en blanco, representan un estado de relajación mental. Por tanto, este proyecto comienza como inicio de un sistema global de BCI, el cual servirá como primera toma de contacto con el procesamiento de las ondas cerebrales, para el posterior uso de hardware reconfigurable sobre el cual se implementarán los algoritmos evolutivos. Por ello se vuelve necesario desarrollar un sistema de procesamiento de datos en una FPGA. Estos datos se procesan siguiendo la metodología de procesamiento digital de señales, y en este caso se realiza un análisis de la frecuencia utilizando la transformada rápida de Fourier, o FFT. Una vez desarrollado el sistema de procesamiento de los datos, se integra con otro sistema que se encarga de captar los datos recogidos por un ADC (Analog to Digital Converter), conocido como ADS1299. Este ADC está especialmente diseñado para captar potenciales del cerebro humano. De esta forma, el sistema final capta los datos mediante el ADS1299, y los envía a la FPGA que se encarga de procesarlos. La interpretación es realizada por los usuarios que analizan posteriormente los datos procesados. Para el desarrollo del sistema de procesamiento de los datos, se dispone primariamente de dos plataformas de estudio, a partir de las cuales se captarán los datos para después realizar el procesamiento: 1. La primera consiste en una herramienta comercial desarrollada y distribuida por OpenBCI, proyecto que se dedica a la venta de hardware para la realización de EEG, así como otros ensayos. Esta herramienta está formada por un microprocesador, un módulo de memoria SD para el almacenamiento de datos, y un módulo de comunicación inalámbrica que transmite los datos por Bluetooth. Además cuenta con el mencionado ADC ADS1299. Esta plataforma ofrece una interfaz gráfica que sirve para realizar la investigación previa al diseño del sistema de procesamiento, al permitir tener una primera toma de contacto con el sistema. 2. La segunda plataforma consiste en un kit de evaluación para el ADS1299, desde la cual se pueden acceder a los diferentes puertos de control a través de los pines de comunicación del ADC. Esta plataforma se conectará con la FPGA en el sistema integrado. Para entender cómo funcionan las ondas más simples del cerebro, así como saber cuáles son los requisitos mínimos en el análisis de ondas EEG se realizaron diferentes consultas con el Dr Ceferino Maestu, neurofisiólogo del Centro de Tecnología Biomédica (CTB) de la UPM. Él se encargó de introducirnos en los distintos procedimientos en el análisis de ondas en electroencefalogramas, así como la forma en que se deben de colocar los electrodos en el cráneo. Para terminar con la investigación previa, se realiza en MATLAB un primer modelo de procesamiento de los datos. Una característica muy importante de las ondas cerebrales es la aleatoriedad de las mismas, de forma que el análisis en el dominio del tiempo se vuelve muy complejo. Por ello, el paso más importante en el procesamiento de los datos es el paso del dominio temporal al dominio de la frecuencia, mediante la aplicación de la transformada rápida de Fourier o FFT (Fast Fourier Transform), donde se pueden analizar con mayor precisión los datos recogidos. El modelo desarrollado en MATLAB se utiliza para obtener los primeros resultados del sistema de procesamiento, el cual sigue los siguientes pasos. 1. Se captan los datos desde los electrodos y se escriben en una tabla de datos. 2. Se leen los datos de la tabla. 3. Se elige el tamaño temporal de la muestra a procesar. 4. Se aplica una ventana para evitar las discontinuidades al principio y al final del bloque analizado. 5. Se completa la muestra a convertir con con zero-padding en el dominio del tiempo. 6. Se aplica la FFT al bloque analizado con ventana y zero-padding. 7. Los resultados se llevan a una gráfica para ser analizados. Llegados a este punto, se observa que la captación de ondas alfas resulta muy viable. Aunque es cierto que se presentan ciertos problemas a la hora de interpretar los datos debido a la baja resolución temporal de la plataforma de OpenBCI, este es un problema que se soluciona en el modelo desarrollado, al permitir el kit de evaluación (sistema de captación de datos) actuar sobre la velocidad de captación de los datos, es decir la frecuencia de muestreo, lo que afectará directamente a esta precisión. Una vez llevado a cabo el primer procesamiento y su posterior análisis de los resultados obtenidos, se procede a realizar un modelo en Hardware que siga los mismos pasos que el desarrollado en MATLAB, en la medida que esto sea útil y viable. Para ello se utiliza el programa XPS (Xilinx Platform Studio) contenido en la herramienta EDK (Embedded Development Kit), que nos permite diseñar un sistema embebido. Este sistema cuenta con: Un microprocesador de tipo soft-core llamado MicroBlaze, que se encarga de gestionar y controlar todo el sistema; Un bloque FFT que se encarga de realizar la transformada rápida Fourier; Cuatro bloques de memoria BRAM, donde se almacenan los datos de entrada y salida del bloque FFT y un multiplicador para aplicar la ventana a los datos de entrada al bloque FFT; Un bus PLB, que consiste en un bus de control que se encarga de comunicar el MicroBlaze con los diferentes elementos del sistema. Tras el diseño Hardware se procede al diseño Software utilizando la herramienta SDK(Software Development Kit).También en esta etapa se integra el sistema de captación de datos, el cual se controla mayoritariamente desde el MicroBlaze. Por tanto, desde este entorno se programa el MicroBlaze para gestionar el Hardware que se ha generado. A través del Software se gestiona la comunicación entre ambos sistemas, el de captación y el de procesamiento de los datos. También se realiza la carga de los datos de la ventana a aplicar en la memoria correspondiente. En las primeras etapas de desarrollo del sistema, se comienza con el testeo del bloque FFT, para poder comprobar el funcionamiento del mismo en Hardware. Para este primer ensayo, se carga en la BRAM los datos de entrada al bloque FFT y en otra BRAM los datos de la ventana aplicada. Los datos procesados saldrán a dos BRAM, una para almacenar los valores reales de la transformada y otra para los imaginarios. Tras comprobar el correcto funcionamiento del bloque FFT, se integra junto al sistema de adquisición de datos. Posteriormente se procede a realizar un ensayo de EEG real, para captar ondas alfa. Por otro lado, y para validar el uso de las FPGAs como unidades ideales de procesamiento, se realiza una medición del tiempo que tarda el bloque FFT en realizar la transformada. Este tiempo se compara con el tiempo que tarda MATLAB en realizar la misma transformada a los mismos datos. Esto significa que el sistema desarrollado en Hardware realiza la transformada rápida de Fourier 27 veces más rápido que lo que tarda MATLAB, por lo que se puede ver aquí la gran ventaja competitiva del Hardware en lo que a tiempos de ejecución se refiere. En lo que al aspecto didáctico se refiere, este TFG engloba diferentes campos. En el campo de la electrónica: Se han mejorado los conocimientos en MATLAB, así como diferentes herramientas que ofrece como FDATool (Filter Design Analysis Tool). Se han adquirido conocimientos de técnicas de procesado de señal, y en particular, de análisis espectral. Se han mejorado los conocimientos en VHDL, así como su uso en el entorno ISE de Xilinx. Se han reforzado los conocimientos en C mediante la programación del MicroBlaze para el control del sistema. Se ha aprendido a crear sistemas embebidos usando el entorno de desarrollo de Xilinx usando la herramienta EDK (Embedded Development Kit). En el campo de la neurología, se ha aprendido a realizar ensayos EEG, así como a analizar e interpretar los resultados mostrados en el mismo. En cuanto al impacto social, los sistemas BCI afectan a muchos sectores, donde destaca el volumen de personas con discapacidades físicas, para los cuales, este sistema implica una oportunidad de aumentar su autonomía en el día a día. También otro sector importante es el sector de la investigación médica, donde los sistemas BCIs son aplicables en muchas aplicaciones como, por ejemplo, la detección y estudio de enfermedades cognitivas.
Resumo:
This historical study uses qualitative methods to analyze and describe the components of the material world of nursing care in Spain between 1855 and 1955 based on the analysis of eight nurse training manuals. A total of 360 objects and 45 procedures were recorded. Manual analysis was carried out concurrently with data collection based on the Grounded Theory approach. Findings show that the material world of health care was composed of objects that were handed down by the medical profession to health care professionals and adapted objects, improvised mainly out of everyday household items. While the handing down of medical tools and instruments could be said to be a theoretical and technical achievement, it is not clear whether it was also a scientific accomplishment. The improvisation of objects out of everyday household items promoted by the manuals highlights the artisan-like and ingenious nature of nursing practice, which should be explored further in future studies to provide a greater understanding and promote the recognition of these objects as a health care technology.
Resumo:
No todo tiempo pasado fue mejor. Descubrimientos médicos invaluables, un amplio portafolio de medicamentos y una inigualable dotación de equipos hacen que, en la actualidad, las alternativas para los pacientes sean más y mejores. La época en que los médicos se quedaban sin respuesta ante los enigmas de la salud ya es historia. Este disfrute de una medicina más certera se debe, en gran medida, a la ingeniería biomédica o bioingeniería, una ciencia que ha revolucionado al mundo. Gracias a ella, la humanidad ha sido testigo de magnánimos descubrimientos como el radio (elemento químico desarrollado por los esposos Curie), los rayos X (Roentgen) y el electrocardiógrafo (utilizado por primera vez en 1903 por Einthoven). Es tal el despliegue de tecnología que, de acuerdo con la Food and Drug Administration (FDA), organismo de los Estados Unidos que se encarga del registro, control y certificación de los dispositivos médicos, hoy en día existen más de 100 mil tipos de equipos médicos, sin olvidar que cada año se agregan a este arsenal 5 mil nuevos. Si bien este panorama luce como un triunfo para la humanidad, expertos aseguran que nada es tan perfecto como parece y que, en cambio, la tecnología médica tiene sus puntos en contra, sus mitos y realidades. Aunque no cabe la menor duda de que la tecnología médica ha contribuido a solucionar cientos de problemas de la humanidad y que ha ofrecido un sinnúmero de respuestas a las más grandes incógnitas, tampoco se puede ocultar que este mar de opciones no resulta tan benéfico, pues adquirir la tecnología adecuada, entre tanta diversidad, es un verdadero problema para los sistemas de salud, sobre todo si se tiene en cuenta que no todos los equipos son ciento por ciento seguros. El tema de los eventos adversos que presentan los dispositivos médicos no es nuevo. En 1970, Ralph Nader (activista y abogado estadounidense) denunció que alrededor de unos 1.200 norteamericanos podían ser electrocutados, cada año, por procedimientos rutinarios de diagnóstico y terapia (Nader, 1970, 176-179). Un año más tarde, el Instituto para la Investigación del Cuidado de Emergencia (ECRI, por sus siglas en inglés) emitió un reporte contundente: “una perturbadora cantidad de equipos médicos han demostrado ser inefectivos, peligrosos y de mala calidad” (Emergency Care Research Institute, 1971, 75-93). Más adelante, el Instituto Nacional de Medicina de los Estados Unidos encontró que alrededor de 44 mil a 98 mil norteamericanos mueren anualmente debido a errores médicos, situación que se da porque “el uso de tecnologías, cada vez más sofisticadas y complejas, es un factor contribuyente a la cantidad de errores encontrados” (Committee on Quality Health Care in America, 2000). Entonces, ¿esto se traduce en que la industria médica es insegura? Sí. Tal vez la menos segura de todas. Literalmente hablando, se puede decir que es mejor vivir al lado de una planta nuclear que entrar a un hospital. Una conclusión que, aunque perturbadora, es real. Así lo prueban los análisis que se hacen sobre niveles de “peligrosidad” (ver imagen) y en los cuales se registran la cantidad de vidas que se pierden por año (eje horizontal) versus la cantidad de sucesos ocurridos por instalación (eje vertical).
Resumo:
Desde os anos oitenta que os avanços das ciências básicas e das ciências da engenharia têm dado um impulso sem precedentes à investigação médica, o que criou as condições para a afirmação da Engenharia Biomédica como ramo autónomo da Engenharia. Este novo ramo da Engenharia impôs-se em domínios que incluem a imagiologia biomédica, a bioinformática, a biotecnologia, a biomecânica, os biomateriais, a engenharia de tecidos, próteses e orgãos artificiais, a análise e modelação de sinais fisiológicos e a gestão de sistemas de saúde. Já no século XXI, o volume de saber acumulado e a motivação para acelerar desenvolvimentos científicos e tecnológicos, levou à criação e organização nas universidades de uma oferta de cursos de graduação e pós-graduação em Engenharia Biomédica. Apesar do espectro muito largo da Engenharia Biomédica e dos cursos criados, é possível, mesmo ao nível de Mestrado pós-Bologna (licenciatura pré-Bologna), dar uma formação avançada que permita aos alunos realizar trabalhos de investigação complexos e com impacto clínico. Neste artigo apresentamos dois destes casos de sucesso, representativos do papel da investigação ao longo do ensino bem actual da Engenharia Biomédica. No primeiro, intitulado “Caracterização Tridimensional da Placa de Ateroma da Bifurcação Carotídea com Ultrasonografia 3D”, é apresentado um método inovador de diagnóstico da Aterosclerose, baseado na reconstrução e caracterização tridimensional da lesão aterosclerótica ao nível da bifurcação carotídea. O segundo trabalho, intitulado “Reconstrução da Frente de Onda e Simulação da Acuidade Visual no Estudo do Impacto das Aberrações Ópticas em Olhos Submetidos a Cirurgia”, apresenta uma ferramenta computacional que gera informação adicional sobre a medição da frente de onda obtida com aparelhos comerciais, permitindo estudar o impacto de aberrações ópticas na acuidade visual de diferentes olhos. Este artigo está organizado em quatro partes. A primeira parte é uma nota histórica introdutória à Engenharia Biomédica em geral. A segunda parte apresenta o que do ponto de vista de ensino superior em Engenharia Biomédica, ao nível de Mestrado Integrado de 1º e 2º ciclos, pode em geral viabilizar a fácil inserção dos estudantes na Investigação, conduzindo-os de imediato a resultados de investigação concretos. A terceira parte constitui a parte central deste artigo onde se apresentam dois exemplos ilustrativos do sucesso da formação de 5 anos em Engenharia Biomédica e da inserção da investigação, desde muito cedo, nessa formação. Por fim, na quarta secção apresentam-se as conclusões.
Resumo:
La estrategia básica para el desarrollo de programas de lucha contra la hidatidosis es en la actualidad la de atención primaria de la salud. En el presente trabajo, y en ese marco, se instrumenta un sistema de detección precoz de la hidatidosis basado en el diagnóstico inmunológico mediante la técnica de Elisa, a partir de muestras de sangre capilar tomadas en papel de filtro por maestras y agentes sanitarios de los servicios oficiales de la provincia de Rio Negro. Fueron entrenadas 177 maestras y 45 agentes sanitarios correspondientes a 25 escuelas, 3 albergues y 9 hospitales, todos del medio rural. Se obtuvieron 890 muestras de sangre durante el entrenamiento. Posteriormente el personal entrenado instrumentó el sistema obteniendo 728 muestras al inicio del programa. No hubo diferencias estadísticas en la reactividad de ambas muestras. La prevalencia serológica hallada fue del 1.32%. La actividad desplegada por maestras y agentes sanitarios permitió detectar 21 casos nuevos, lo cual constituyó el 20% de los casos nuevos diagnosticados en el área en el período de trabajo. Se discute la viabilidad y la importancia de la incorporación de efectores no tradicionales en los Programas de Control de la Hidatidosis.
Resumo:
A elaboração de um artigo científico na área biomédica está sujeita a um certo número de convenções internacionais. Na sua forma clássica um artigo integra os seguintes componentes essenciais: Introdução, Material e Métodos,Resultados, Discussão, Bibliografia e Resumo. No âmbito do processo editorial os autores submetem o artigo a apreciação dos editores e redactores-avaliadores verificando se o material é original, se os dados são válidos, se as conclusões são justificadas pelos dados se a informação é importante e igualmente a clareza do estilo linguístico. Do referir a importância dos aspectos éticos relacionados com o tema implicando quer os autores, quer os editores e redactores.
Resumo:
El proyecto se lleva a cabo utilizando el modelo investigativo del “observatorio urbano”. Los mismos surgen como instrumentos de “UN-Hábitat” (Programa de Naciones Unidas), para impulsar el proceso de desarrollo urbano sostenible. Son organismos que se encargan de recolectar, clasificar y procesar información estadística para generar indicadores y parámetros a las condiciones urbanas de las ciudades. Para desarrollar el observatorio se efectúa el estudio de variantes e invariantes del paisaje urbano en el Programa 12.000 viviendas “Nuevos barrios”, del Gobierno de la provincia de Córdoba (financiado por el BID para la erradicación de Villas de Emergencia localizadas en zonas de riesgo). Barrios inaugurados en el año 2004 en la ciudad de Córdoba Capital. El propósito es analizar las transmutaciones producidas desde su apertura a un corte temporal realizado durante el año 2008 (cuatro años más tarde de su habilitación). Este proyecto pretende desarrollar un proceso metodológico para la tipificación de modalidades y formas de ocupación y construcción espontánea del paisaje, en función de tres líneas de estudio (Morfología, Tecnología y Sustentabilidad). Son objetivos esenciales de este proyecto: comprometerse con la situación de los grupos marginados y vulnerables de la sociedad; ayudar a los gobiernos locales a mejorar la recolección, el análisis y el uso de la información en la formulación de políticas urbanas más eficaces; contribuir a la teoría del diseño del Paisaje Urbano, desde un enfoque intradisciplinar; y desarrollar la formación de recursos humanos
Resumo:
La Universidad Católica tiene en sus prioridades académicas, sociales y de extensión favorecer las actividades relativas a la vivienda para población de bajos recursos económicos. Las viviendas de adobe son un aspecto constructivo descuidado en nuestro país a pesar que en otras partes del mundo se le atiende con gran interés dada la falta de medios, materiales, metodología del uso y fundamentalmente de energía. Las cubiertas de barro (diferentes dosajes) con estructura de tracción de cañas sería un tema absolutamente novedoso. Fue presentado a Técnica y Pares evaluadores de CONEAU y al Decano de la Facultad, quienes manifestaron gran interés por el desarrollo de estas investigaciones, cuyos resultados se intercambiarían también con el CEVE (Centro Experimental de Vivienda Económica) dependiendo de CONICET y CICyT (Consejo de Investigaciones Científicas y Técnicas) para su difusión y posterior aplicación en planes de viviendas sociales.
Resumo:
En este proyecto se pretende abordar el problema de la comercialización de la fibra de Camélidos sudamericanos, caprinos de Angora y de Cachemira y de ovinos Merinos superfino, apuntando a desarrollar tecnologías no disponibles o cuyos detalles aun no están claros, para poder brindar a través de una planta textil propia un servicio de procesamiento textil a los productores interesados e integrados a Programas de Desarrollo, a los fines de obviar los problemas de mercado y comercialización de la fibra en bruto. Para esto, se van a realizar ensayos textiles de diversa índole, con gran énfasis en el desarrollo de una tecnología de separación no convencional del “guard hair” y el “down” de las fibras de Camélidos y Caprinos, minimizando las roturas de fibras y obteniendo un producto final con un porcentaje de “guard hair” no superior al 2%, que es lo se ajusta a las normas de calidad más exigentes. Por otra parte, el procesamiento convencional (sistemas “worsted” y “woollen”) requiere ajustes para obtener hilos puros de estas fibras y para hilar lanas superfinas que ya no se producían en el país. Se trabajará en relación con el convenio interinstitucional entre la Facultad y la Fundación Habitat. Se utilizará como materia prima para los ensayos fibra proveniente de todos los proyectos integrados al SUPPRAD.
Resumo:
En la actualidad la información es uno de los elementos de mayor valor agregado, más cuando es expresión novedosa y útil que permite acelerar el proceso de toma de decisiones o aumentar el conocimiento sobre determinados elementos. Los volúmenes de información que se generan en forma permanente (por ej. en el ámbito hospitalario, experimento genómicos, epidimeológicos, etc.) están creciendo considerablemente. El análisis y procesos diagnósticos exitosos implican la utilización de un número cada vez mayor de variables a asociar. Por otra parte, el formato digital está reemplazando cada vez más el papel en todos los ambientes, desde el empresarial hasta el de salud, pasando indudablemente por el de los experimentos científicos, particularmente los experimentos genéticos. Estos procesos de recolección o generación de información producen volúmenes tales que superan las capacidades humanas para analizarlas. Esta limitación se debe a varios factores, entre los que podemos mencionar, la disponibilidad en tiempo y la incapacidad de relacionar grandes volúmenes con eventos y una gran cantidad de variables. Entonces ¿Qué hacer con toda la información disponible? ¿Cómo extraer conocimiento de dicha información? El Descubrimiento de Información en Bases de Datos (DIBD) y las técnicas de Minería de Datos (MD) (entre las que podemos mencionar aquellas provenientes del campo de la Inteligencia Artificial, tales como los modelos Neuronales Artificiales) son metodologías asociadas, tendientes a resolver los problemas de la extracción de información novel y útil sobre un conjunto de datos y/o señales biomédicas. Este proyecto trata sobre el desarrollo y aplicación de metodologías de análisis de datos para el descubrimiento de información en bases de datos biológicas y biomédicas, tendientes a mejorar y/o desarrollar nuevas técnicas de diagnóstico, como también para el análisis de señales e información biomédica.