997 resultados para Tecnología biomédica
Resumo:
Monográfico con el título: 'La gestión estratégica de la Educación Superior : retos y oportunidades'. Resumen basado en el de la publicación
Resumo:
El presente Trabajo de Fin de Grado es fruto de la colaboración en una investigación sobre la hipertermia magnética entre el Centro de Electrónica Industrial de la ETSII UPM (CEI) y el Centro de Tecnología Biomédica UPM (CTB). La hipertermia magnética es un tratamiento contra el cáncer que se encuentra en fase de desarrollo en distintos lugares alrededor del mundo. Se trata de una terapia que consiste en elevar la temperatura de las células cancerígenas hasta valores de entre 42 y 46ºC con el fin de destruirlas. Esto es posible pues por lo general, las células cancerígenas presentan una mayor sensibilidad ante efectos de hipertermia que el resto de células, por lo que una vez alcanzada la temperatura deseada se destruirían las células anómalas y las sanas quedarían intactas. Si se induce al paciente fiebre hasta los 39 ºC, tan sólo sería necesario alcanzar incrementos de temperatura de 3 o 4ºC para que el tratamiento tuviera éxito. El calentamiento se produce gracias al movimiento de nanopartículas magnéticas (NPMs) situadas en dichas células mediante técnicas médicas ya estudiadas. A su vez este movimiento se da gracias a la aplicación de un campo magnético sobre las NPMs. El equipo electrónico del que se dispone en esta investigación y que genera el campo magnético, está constituido esencialmente por un inversor de potencia en puente completo con carga inductiva, una placa de control y una fuente de tensión continua. A lo largo de este trabajo se abordarán y estudiarán varias cuestiones en línea con la continuidad de la investigación en este tratamiento y en aspectos de la misma como el estudio del equipo disponible y su mejora. En primer lugar se lleva a cabo un estudio de caracterización térmica del equipo del que se dispone, con el objetivo de conocer los parámetros de los que depende su funcionamiento y que permitirán verificar y dar consistencia a los resultados de los posteriores ensayos que con él se harán. Así mismo se realiza una fase de ensayos con el objetivo de optimizar el equipo, determinando cuales son los parámetros más relevantes y los valores de los mismos, que llevan al equipo a su máximo rendimiento en términos de incrementos de temperatura de las NPMs y por tanto hacia el éxito de la terapia. Tras la caracterización y optimización del equipo de hipertermia, se diseña una nueva fase de ensayos que tiene como fin la comparación de los resultados experimentales con el modelo físico teórico de calentamiento de las NPMs. Además se busca la comprobación de ciertas hipótesis extraídas de los mismos resultados experimentales, como la influencia de la forma de onda de la señal excitadora en el incremento de temperatura. Finalmente y con el fin de mejorar el rendimiento del equipo, se elabora un conjunto de posibles geometrías para la carga inductiva que incluya un núcleo de hierro, pues hasta el momento la bobina de la que se disponía tenía núcleo de aire. Se simulan las nuevas geometrías de la bobina con núcleo de hierro y se estudia cómo influyen los cambios en el campo magnético. Los avances en la investigación llevados a cabo en este Trabajo de Fin de Grado han permitido dar un paso más en el rendimiento, la fiabilidad de resultados y la mejora del equipo de hipertermia magnética, abriendo las puertas a ensayos in vitro y posteriormente in vivo para una terapia que podría estar más cerca de dar tratamiento eficaz a una de las enfermedades más implacables de nuestro tiempo.
Resumo:
En el mundo actual las aplicaciones basadas en sistemas biométricos, es decir, aquellas que miden las señales eléctricas de nuestro organismo, están creciendo a un gran ritmo. Todos estos sistemas incorporan sensores biomédicos, que ayudan a los usuarios a controlar mejor diferentes aspectos de la rutina diaria, como podría ser llevar un seguimiento detallado de una rutina deportiva, o de la calidad de los alimentos que ingerimos. Entre estos sistemas biométricos, los que se basan en la interpretación de las señales cerebrales, mediante ensayos de electroencefalografía o EEG están cogiendo cada vez más fuerza para el futuro, aunque están todavía en una situación bastante incipiente, debido a la elevada complejidad del cerebro humano, muy desconocido para los científicos hasta el siglo XXI. Por estas razones, los dispositivos que utilizan la interfaz cerebro-máquina, también conocida como BCI (Brain Computer Interface), están cogiendo cada vez más popularidad. El funcionamiento de un sistema BCI consiste en la captación de las ondas cerebrales de un sujeto para después procesarlas e intentar obtener una representación de una acción o de un pensamiento del individuo. Estos pensamientos, correctamente interpretados, son posteriormente usados para llevar a cabo una acción. Ejemplos de aplicación de sistemas BCI podrían ser mover el motor de una silla de ruedas eléctrica cuando el sujeto realice, por ejemplo, la acción de cerrar un puño, o abrir la cerradura de tu propia casa usando un patrón cerebral propio. Los sistemas de procesamiento de datos están evolucionando muy rápido con el paso del tiempo. Los principales motivos son la alta velocidad de procesamiento y el bajo consumo energético de las FPGAs (Field Programmable Gate Array). Además, las FPGAs cuentan con una arquitectura reconfigurable, lo que las hace más versátiles y potentes que otras unidades de procesamiento como las CPUs o las GPUs.En el CEI (Centro de Electrónica Industrial), donde se lleva a cabo este TFG, se dispone de experiencia en el diseño de sistemas reconfigurables en FPGAs. Este TFG es el segundo de una línea de proyectos en la cual se busca obtener un sistema capaz de procesar correctamente señales cerebrales, para llegar a un patrón común que nos permita actuar en consecuencia. Más concretamente, se busca detectar cuando una persona está quedándose dormida a través de la captación de unas ondas cerebrales, conocidas como ondas alfa, cuya frecuencia está acotada entre los 8 y los 13 Hz. Estas ondas, que aparecen cuando cerramos los ojos y dejamos la mente en blanco, representan un estado de relajación mental. Por tanto, este proyecto comienza como inicio de un sistema global de BCI, el cual servirá como primera toma de contacto con el procesamiento de las ondas cerebrales, para el posterior uso de hardware reconfigurable sobre el cual se implementarán los algoritmos evolutivos. Por ello se vuelve necesario desarrollar un sistema de procesamiento de datos en una FPGA. Estos datos se procesan siguiendo la metodología de procesamiento digital de señales, y en este caso se realiza un análisis de la frecuencia utilizando la transformada rápida de Fourier, o FFT. Una vez desarrollado el sistema de procesamiento de los datos, se integra con otro sistema que se encarga de captar los datos recogidos por un ADC (Analog to Digital Converter), conocido como ADS1299. Este ADC está especialmente diseñado para captar potenciales del cerebro humano. De esta forma, el sistema final capta los datos mediante el ADS1299, y los envía a la FPGA que se encarga de procesarlos. La interpretación es realizada por los usuarios que analizan posteriormente los datos procesados. Para el desarrollo del sistema de procesamiento de los datos, se dispone primariamente de dos plataformas de estudio, a partir de las cuales se captarán los datos para después realizar el procesamiento: 1. La primera consiste en una herramienta comercial desarrollada y distribuida por OpenBCI, proyecto que se dedica a la venta de hardware para la realización de EEG, así como otros ensayos. Esta herramienta está formada por un microprocesador, un módulo de memoria SD para el almacenamiento de datos, y un módulo de comunicación inalámbrica que transmite los datos por Bluetooth. Además cuenta con el mencionado ADC ADS1299. Esta plataforma ofrece una interfaz gráfica que sirve para realizar la investigación previa al diseño del sistema de procesamiento, al permitir tener una primera toma de contacto con el sistema. 2. La segunda plataforma consiste en un kit de evaluación para el ADS1299, desde la cual se pueden acceder a los diferentes puertos de control a través de los pines de comunicación del ADC. Esta plataforma se conectará con la FPGA en el sistema integrado. Para entender cómo funcionan las ondas más simples del cerebro, así como saber cuáles son los requisitos mínimos en el análisis de ondas EEG se realizaron diferentes consultas con el Dr Ceferino Maestu, neurofisiólogo del Centro de Tecnología Biomédica (CTB) de la UPM. Él se encargó de introducirnos en los distintos procedimientos en el análisis de ondas en electroencefalogramas, así como la forma en que se deben de colocar los electrodos en el cráneo. Para terminar con la investigación previa, se realiza en MATLAB un primer modelo de procesamiento de los datos. Una característica muy importante de las ondas cerebrales es la aleatoriedad de las mismas, de forma que el análisis en el dominio del tiempo se vuelve muy complejo. Por ello, el paso más importante en el procesamiento de los datos es el paso del dominio temporal al dominio de la frecuencia, mediante la aplicación de la transformada rápida de Fourier o FFT (Fast Fourier Transform), donde se pueden analizar con mayor precisión los datos recogidos. El modelo desarrollado en MATLAB se utiliza para obtener los primeros resultados del sistema de procesamiento, el cual sigue los siguientes pasos. 1. Se captan los datos desde los electrodos y se escriben en una tabla de datos. 2. Se leen los datos de la tabla. 3. Se elige el tamaño temporal de la muestra a procesar. 4. Se aplica una ventana para evitar las discontinuidades al principio y al final del bloque analizado. 5. Se completa la muestra a convertir con con zero-padding en el dominio del tiempo. 6. Se aplica la FFT al bloque analizado con ventana y zero-padding. 7. Los resultados se llevan a una gráfica para ser analizados. Llegados a este punto, se observa que la captación de ondas alfas resulta muy viable. Aunque es cierto que se presentan ciertos problemas a la hora de interpretar los datos debido a la baja resolución temporal de la plataforma de OpenBCI, este es un problema que se soluciona en el modelo desarrollado, al permitir el kit de evaluación (sistema de captación de datos) actuar sobre la velocidad de captación de los datos, es decir la frecuencia de muestreo, lo que afectará directamente a esta precisión. Una vez llevado a cabo el primer procesamiento y su posterior análisis de los resultados obtenidos, se procede a realizar un modelo en Hardware que siga los mismos pasos que el desarrollado en MATLAB, en la medida que esto sea útil y viable. Para ello se utiliza el programa XPS (Xilinx Platform Studio) contenido en la herramienta EDK (Embedded Development Kit), que nos permite diseñar un sistema embebido. Este sistema cuenta con: Un microprocesador de tipo soft-core llamado MicroBlaze, que se encarga de gestionar y controlar todo el sistema; Un bloque FFT que se encarga de realizar la transformada rápida Fourier; Cuatro bloques de memoria BRAM, donde se almacenan los datos de entrada y salida del bloque FFT y un multiplicador para aplicar la ventana a los datos de entrada al bloque FFT; Un bus PLB, que consiste en un bus de control que se encarga de comunicar el MicroBlaze con los diferentes elementos del sistema. Tras el diseño Hardware se procede al diseño Software utilizando la herramienta SDK(Software Development Kit).También en esta etapa se integra el sistema de captación de datos, el cual se controla mayoritariamente desde el MicroBlaze. Por tanto, desde este entorno se programa el MicroBlaze para gestionar el Hardware que se ha generado. A través del Software se gestiona la comunicación entre ambos sistemas, el de captación y el de procesamiento de los datos. También se realiza la carga de los datos de la ventana a aplicar en la memoria correspondiente. En las primeras etapas de desarrollo del sistema, se comienza con el testeo del bloque FFT, para poder comprobar el funcionamiento del mismo en Hardware. Para este primer ensayo, se carga en la BRAM los datos de entrada al bloque FFT y en otra BRAM los datos de la ventana aplicada. Los datos procesados saldrán a dos BRAM, una para almacenar los valores reales de la transformada y otra para los imaginarios. Tras comprobar el correcto funcionamiento del bloque FFT, se integra junto al sistema de adquisición de datos. Posteriormente se procede a realizar un ensayo de EEG real, para captar ondas alfa. Por otro lado, y para validar el uso de las FPGAs como unidades ideales de procesamiento, se realiza una medición del tiempo que tarda el bloque FFT en realizar la transformada. Este tiempo se compara con el tiempo que tarda MATLAB en realizar la misma transformada a los mismos datos. Esto significa que el sistema desarrollado en Hardware realiza la transformada rápida de Fourier 27 veces más rápido que lo que tarda MATLAB, por lo que se puede ver aquí la gran ventaja competitiva del Hardware en lo que a tiempos de ejecución se refiere. En lo que al aspecto didáctico se refiere, este TFG engloba diferentes campos. En el campo de la electrónica: Se han mejorado los conocimientos en MATLAB, así como diferentes herramientas que ofrece como FDATool (Filter Design Analysis Tool). Se han adquirido conocimientos de técnicas de procesado de señal, y en particular, de análisis espectral. Se han mejorado los conocimientos en VHDL, así como su uso en el entorno ISE de Xilinx. Se han reforzado los conocimientos en C mediante la programación del MicroBlaze para el control del sistema. Se ha aprendido a crear sistemas embebidos usando el entorno de desarrollo de Xilinx usando la herramienta EDK (Embedded Development Kit). En el campo de la neurología, se ha aprendido a realizar ensayos EEG, así como a analizar e interpretar los resultados mostrados en el mismo. En cuanto al impacto social, los sistemas BCI afectan a muchos sectores, donde destaca el volumen de personas con discapacidades físicas, para los cuales, este sistema implica una oportunidad de aumentar su autonomía en el día a día. También otro sector importante es el sector de la investigación médica, donde los sistemas BCIs son aplicables en muchas aplicaciones como, por ejemplo, la detección y estudio de enfermedades cognitivas.
Resumo:
This historical study uses qualitative methods to analyze and describe the components of the material world of nursing care in Spain between 1855 and 1955 based on the analysis of eight nurse training manuals. A total of 360 objects and 45 procedures were recorded. Manual analysis was carried out concurrently with data collection based on the Grounded Theory approach. Findings show that the material world of health care was composed of objects that were handed down by the medical profession to health care professionals and adapted objects, improvised mainly out of everyday household items. While the handing down of medical tools and instruments could be said to be a theoretical and technical achievement, it is not clear whether it was also a scientific accomplishment. The improvisation of objects out of everyday household items promoted by the manuals highlights the artisan-like and ingenious nature of nursing practice, which should be explored further in future studies to provide a greater understanding and promote the recognition of these objects as a health care technology.
Resumo:
No todo tiempo pasado fue mejor. Descubrimientos médicos invaluables, un amplio portafolio de medicamentos y una inigualable dotación de equipos hacen que, en la actualidad, las alternativas para los pacientes sean más y mejores. La época en que los médicos se quedaban sin respuesta ante los enigmas de la salud ya es historia. Este disfrute de una medicina más certera se debe, en gran medida, a la ingeniería biomédica o bioingeniería, una ciencia que ha revolucionado al mundo. Gracias a ella, la humanidad ha sido testigo de magnánimos descubrimientos como el radio (elemento químico desarrollado por los esposos Curie), los rayos X (Roentgen) y el electrocardiógrafo (utilizado por primera vez en 1903 por Einthoven). Es tal el despliegue de tecnología que, de acuerdo con la Food and Drug Administration (FDA), organismo de los Estados Unidos que se encarga del registro, control y certificación de los dispositivos médicos, hoy en día existen más de 100 mil tipos de equipos médicos, sin olvidar que cada año se agregan a este arsenal 5 mil nuevos. Si bien este panorama luce como un triunfo para la humanidad, expertos aseguran que nada es tan perfecto como parece y que, en cambio, la tecnología médica tiene sus puntos en contra, sus mitos y realidades. Aunque no cabe la menor duda de que la tecnología médica ha contribuido a solucionar cientos de problemas de la humanidad y que ha ofrecido un sinnúmero de respuestas a las más grandes incógnitas, tampoco se puede ocultar que este mar de opciones no resulta tan benéfico, pues adquirir la tecnología adecuada, entre tanta diversidad, es un verdadero problema para los sistemas de salud, sobre todo si se tiene en cuenta que no todos los equipos son ciento por ciento seguros. El tema de los eventos adversos que presentan los dispositivos médicos no es nuevo. En 1970, Ralph Nader (activista y abogado estadounidense) denunció que alrededor de unos 1.200 norteamericanos podían ser electrocutados, cada año, por procedimientos rutinarios de diagnóstico y terapia (Nader, 1970, 176-179). Un año más tarde, el Instituto para la Investigación del Cuidado de Emergencia (ECRI, por sus siglas en inglés) emitió un reporte contundente: “una perturbadora cantidad de equipos médicos han demostrado ser inefectivos, peligrosos y de mala calidad” (Emergency Care Research Institute, 1971, 75-93). Más adelante, el Instituto Nacional de Medicina de los Estados Unidos encontró que alrededor de 44 mil a 98 mil norteamericanos mueren anualmente debido a errores médicos, situación que se da porque “el uso de tecnologías, cada vez más sofisticadas y complejas, es un factor contribuyente a la cantidad de errores encontrados” (Committee on Quality Health Care in America, 2000). Entonces, ¿esto se traduce en que la industria médica es insegura? Sí. Tal vez la menos segura de todas. Literalmente hablando, se puede decir que es mejor vivir al lado de una planta nuclear que entrar a un hospital. Una conclusión que, aunque perturbadora, es real. Así lo prueban los análisis que se hacen sobre niveles de “peligrosidad” (ver imagen) y en los cuales se registran la cantidad de vidas que se pierden por año (eje horizontal) versus la cantidad de sucesos ocurridos por instalación (eje vertical).
Resumo:
Objetivo y metodología: Dentro del perfil buscado por la Universidad Católica Argentina para sus Ingenieros Industriales se encuentran, entre otras, las siguientes cualidades distintivas: “Entenderá que la Ingeniería es una profesión creativa e innovadora que, combinando la ciencia y la tecnología, junto con la economía, la administración y la sociología, se propone tratar y resolver problemas integrando todos los elementos involucrados y buscando, dentro de un marco ético, la mejor solución en beneficio de la calidad de vida del hombre y de la sociedad.”/.../ El análisis de este caso se enmarcara dentro de la Teoría Crítica de la Tecnología y el concepto de “código técnico”, observando cómo estos códigos actúan de manera oculta o invisible, estratificando valores e intereses en normas, reglas, criterios y procedimientos. En cuanto a este último punto, se presentará el Value Sensitive Design (VSD) o Diseño por Valores, una metodología de diseño que actualmente asoma como una luz de esperanza para la integración de los valores a los desarrollos tecnológicos e ingenieriles...
Resumo:
Resumen: En la actualidad, coexisten diferentes formas de entender la tecnología y el proceso tecnológico. En tanto que la tecnología ocupa un lugar de relevancia en las sociedades actuales, las apreciaciones que se derivan de una u otra posición pueden diferir ampliamente en las formas y mecanismos de abordaje y, por ende, en sus consecuencias. Desde la Teoría Crítica de la Tecnología, Andrew Feenberg propone que el desarrollo tecnológico debería ser un proceso democrático, que permita la participación de los diversos actores involucrados. Considera incorporar a aquellos grupos que en muchos de los procesos de desarrollo que se llevan a cabo en el presente no participan en la etapa de diseño y que sufren sus impactos. Para que este proceso de democratización sea posible, los diferentes actores sociales deben estar preparados. El presente trabajo profundizará sobre el perfil del ingeniero emergente de la Teoría Crítica de la Tecnología y su contraste con el modelo propuesto en las carreras de ingeniería. Intentaré determinar de qué modo el perfil de ingeniero vigente puede contribuir a la implementación de procesos de democratización en el diseño tecnológico.
Resumo:
Resumen: Se presenta el proyecto de investigación arqueológica en el área de la Quebrada de La Cueva (Departamento de Humahuaca, provincia de Jujuy). La aproximación se realiza desde la perspectiva de la organización de la tecnología lítica. En este marco, se describen brevemente los distintos sitios arqueológicos, se caracterizan algunas cuestiones teóricas y metodológicas de la investigación y se presentan los resultados preliminares alcanzados.
Resumo:
La metodología de extensión comunitaria propuesta en el presente artículo permite obtener un mejoramiento continuo aun después de la ejecución de un proyecto. En ella se enfatiza el mejoramiento de la familia y sus sistemas de producción orientados al mercado y en armonía con el ambiente. La metodología hace énfasis en la formación de productores y productoras y sus organizaciones locales, potencia transferencia y asesoría técnica realizada por los mismos pobladores, con enfoque de género y desarrollo sostenido. Se parte del principio, que las comunidades deben administrar sus propios procesos de desarrollo agropecuario y local; especialmente lo relacionado al desarrollo de una agricultura sostenible (rentable y en armonía de los recursos naturales). Los actores principales del sistema de extensión propuesto son la familia productora, extensionistas comunitarios (EC), agricultores demostradores (AD), técnicos de proyectos, instituciones de investigación y/o transferencia de tecnología, y otras instituciones de desarrollo local presentes en la comunidad. La metodología de extensión comunitaria se utiliza para el desarrollo de sistemas de producción sostenibles, que fortalezcan el desarrollo económico, social y ambiental local.
Resumo:
En Nicaragua, las entidades que promueven tecnologías de conservación de suelos y aguas (CSA) a los productores uti lizan diferentes enfoques en el proceso de extensión. En al gunos casos los han fusionado o complementado creando un enfoque particular. El objetivo de este estudio realizado en el 2001 - 2002, fue analizar la relación entre los enfoques de extensión y la adopción de tecnologías de conservación de suelos, mediante información obtenida en FIDER, ASPRODIC y ADDAC. La metodología utilizada fue el estudio de caso, que incluyó la realización de entrevistas a coordinadores de proyectos, técnicos-extensionistas y agricultores en San Ramón (Matagalpa), La Trinidad (Estelí) y Santa Lucía (Boaco) donde inciden las entidades FIDER, ADDAC y ASPRODIC respectivamente. Además, el estudio incluyó la observación directa en las parcelas. Se determinó que los enfoques de extensión influyen positivamente en la implementación de tecnologías de CSA, ya que éstos determinan los participan tes en el proceso de extensión, las estrategias, los insumos necesarios y los conocimientos prácticos y teóricos que se requiere compartir con los productores. Las entidades en estudio emplean diferentes enfoques de extensión y la combinación éstos, según la filosofía y necesidades de cada entidad, el enfoque basado en la capacitación y visitas es común en las tres entidades. Se confirma que la adopción de tecnologías es un fenómeno multicausal en el que influyen los enfoques de extensión, pero también depende de otros factores internos y externos a los sistemas de produccion.
Resumo:
Introducción: Este trabajo introduce la reflexión acerca de los aportes de la sociología de la tecnología para la formación de tecnólogos en la Universidad, particularmente en la carrera de Ingeniería en el ámbito de la Universidad Tecnológica Nacional (en adelante, UTN). La introducción de nuevos saberes impuestos por los avances del conocimiento y los cambios económicos, técnicos y sociales es un hecho que no podemos negar. A partir de esta nueva realidad, sobrevino una reestructuración de las divisiones del saber y se han redefinido las condiciones de su transmisión...
Resumo:
Por primera vez en Nicaragua se están haciendo esfuerzos formales y diáfanos para irrumpir en la sociedad de la información y el conocimiento. En el año 2010, el Consejo Nicaraguenses de Ciencia y Tecnología (CONICYT) en colaboración con agentes claves de los sistemas de investigación e innovación definió el Plan Nacional de Ciencia, Tecnología e Innovación, Nicaragua, 2010-2013, el cual cuenta dentro de sus programas estratégicos el desarrollo de un sistema de indicadores de Ciencia, Tecnología e Innovación que oriente la definición de políticas y la toma de decisiones en materia científica. En la actualidad, el CONICYT en colaboración con el Consejo Nacional de Universidades (CNU) están implementado un estudio encauzado a la definición de un Sistema Nacional de Indicadores que permita disponer de información confiable y actualizada sobre Ciencia, Tecnología e Innovación en Nicaragua, que brinde información sobre inversión y gasto en Ciencia y Tecnología, la oferta científica – tecnológica nacional, el impacto del gasto público en C,T e I, y la forma como éste gasto se traduce en bienes y servicios para la sociedad nicaragüense. El proceso de construcción de dichos indicadores se ha estado realizando a través de la utilización de diversas técnicas y metodologías participativas, las cuales han estado siendo aplicadas por etapas, elaboración del marco conceptual; formulación de indicadores; elaboración de documento y aprobación del documento final. El sistema nacional de indicadores estará completo en la medida que los actores claves del sistema nacional de investigación e innovación se interesen en la creación del mismo, esto conlleva analizar la importancia de la creación del sistemas a la luz de su aplicabilidad práctica y el intercambio de experiencias con otros países de la región que han desarrollado el proceso. Es necesario el compromiso de los integrantes del sistema de investigación e innovación de proporcionar la información y alimentar el sistema, generar un software para administrar el sistema, y capacitar personal que estará a cargo de la recolección sistemática de la información, análisis, elaboración de reportes, comparaciones con otros países, cienciometría, así como percepción pública de la ciencia e impacto social del conocimiento.