283 resultados para RUTINA
Resumo:
La novela de Mario Levrero El discurso vacío, escrita en forma de diario, se propone como una rutina de ejercicios que tienen como premisa la capacidad de la escritura de actuar sobre la conducta de quien escribe. Se plantea a la escritura como el medio para construir una forma de vida, donde el trabajo sobre la "forma" de la palabra (la grafía) supone un trabajo simultáneo sobre la forma-de-vida. Se trata de la narración de una vida donde ésta no es una obra sino un proceso objeto de una permanente reescritura que empieza cada vez que se toma la pluma y termina, momentáneamente, en el punto final, sólo para recomenzar en la próxima entrada. En la presente ponencia nos interesa analizar cómo esta escritura inicialmente dirigida a un fin se torna inoperante cuando el contenido se impone sobre la forma: la escritura, cuando ingresa "lo literario", pierde su capacidad "terapéutica". Aquello que apuntaba a un fin que está por fuera del texto deja de tener tal teleología y lo que ocurre entonces es que la escritura se convierte en un medio puro, es inoperante: una escritura sin obra para una forma de vida
Resumo:
Este proyecto de investigación se caracteriza como estudio histórico-etnográfica basado en estudios de casos de la vida cotidiana de nueve mujeres en Valparaíso y Viña del Mar durante la dictadura chilena, analizando el testimonio de los efectos del régimen autoritario en la vida cotidiana de estas mujeres chilenas entre 1980 y 1987. La metodología se radica firmemente en el método etnográfico con entrevistas semi-abiertas y el análisis del discurso de los relatos. En la metáfora de la arpillera (un tapiz anónimo cosido en lona ensamblado a partir de piezas de tela que muestra escenas de la vida cotidiana o protesta la dictadura de Pinochet), trozos y pedazos de experiencia se juntan en el encima de la lona de la historia para dar forma al testimonio de vida la vida cotidiana. Este proyecto se centra en tres aspectos diferentes de la relación entre el Estado autoritario y la vida cotidiana: las técnicas de gobernabilidad (macro), narraciones de silencio y miedo (micro) y trayectorias narrados (espacial), el último inspirado por el ensayo Halbwachs en caminar por la ciudad. Para cerrar, la relevancia del estudio se destaca por el intento de comprender el efecto de un estado autoritario en el sujeto femenino y las respuestas y adaptaciones que las mujeres chilenas adoptaron en la vida privada y pública mediada por la violencia y el miedo bajo dictadura. La dialéctica del acontecimiento y la rutina de la vida cotidiana bajo la dictadura se unen en las memorias narradas, mediada por el presente vivido, lo cual permite una reflexión sobre la cuestión de la alteridad en la sociedad chilena.Este proyecto de investigación se caracteriza como estudio histórico-etnográfica basado en estudios de casos de la vida cotidiana de nueve mujeres en Valparaíso y Viña del Mar durante la dictadura chilena, analizando el testimonio de los efectos del régimen autoritario en la vida cotidiana de estas mujeres chilenas entre 1980 y 1987. La metodología se radica firmemente en el método etnográfico con entrevistas semi-abiertas y el análisis del discurso de los relatos. En la metáfora de la arpillera (un tapiz anónimo cosido en lona ensamblado a partir de piezas de tela que muestra escenas de la vida cotidiana o protesta la dictadura de Pinochet), trozos y pedazos de experiencia se juntan en el encima de la lona de la historia para dar forma al testimonio de vida la vida cotidiana. Este proyecto se centra en tres aspectos diferentes de la relación entre el Estado autoritario y la vida cotidiana: las técnicas de gobernabilidad (macro), narraciones de silencio y miedo (micro) y trayectorias narrados (espacial), el último inspirado por el ensayo Halbwachs en caminar por la ciudad. Para cerrar, la relevancia del estudio se destaca por el intento de comprender el efecto de un estado autoritario en el sujeto femenino y las respuestas y adaptaciones que las mujeres chilenas adoptaron en la vida privada y pública mediada por la violencia y el miedo bajo dictadura. La dialéctica del acontecimiento y la rutina de la vida cotidiana bajo la dictadura se unen en las memorias narradas, mediada por el presente vivido, lo cual permite una reflexión sobre la cuestión de la alteridad en la sociedad chilena.
Resumo:
En este escrito pretendo hablar sobre la gimnasia y su didáctica reflexionando desde su ubicación en el espectro de las actividades físicas y desde su lugar en la cultura de lo corporal. Las clases de gimnasia se han popularizado de una manera impensada hace pocos años atrás, sin embargo en la clase de educación física escolar la gimnasia casi a desaparecido (salvo cuando enseñamos deporte) o resulta un mero castigo ante el mal comportamiento de los niños o sólo forma parte de la rutina de la entrada en calor. Fuera de la educación física esta popularidad de los últimos años no la exime de correr la misma suerte que otras prácticas corporales que han gozado de un auge poco duradero. Es preciso reflexionar sobre la construcción de estos modelos del cuerpo que se construyen en la práctica. Percibir a la gimnasia como una configuración de movimientos, ver sus rasgos, su historia; estudiarla de esa manera supera el concepto de "Agente ", o el del mero "desarrollo de las capacidades motoras". Es necesario pensar la gimnasia como práctica cultural de 3000 años. Práctica del cuerpo originaria en la cultura misma. Interpreto la gimnasia como un aspecto de la cultura del cuerpo, reconocida socialmente que favoreciéndose en el aprovechamiento social de la experiencia humana intenta resolver problemas corporales. ¿ Que reduccionismo se observa actualmente en la práctica gímnica? ¿Cómo pensar a la gimnasia desde un concepto integrador en donde se sintetice la práctica corporal desde las corrientes que han sido y desde aquellas que empiezan a ser?
Resumo:
Esta comunicación tiene como propósito analizar la función de las frases nominales con determinante posesivo en la cadena de designación y denominación empleada por Alberdi en sus Cartas quillotanas para modelar el sujeto Sarmiento, como "contrafigura". En el universo textual/ discursivo, esta cadena es instalada por sintagmas nominales definidos, dispositivos altamente productivos en el corpus en tanto que funcionan como expresiones referenciales, codifican información conceptual que, con su frecuencia de uso, vuelve más accesible y prominente (Stanford y Garrod, 1981; Givón, 1983, 1992; Ariel 1990, 1996) la identidad designada, y reidentifican la representación mental del referente, a partir del propio contenido descriptivo de los nominales definidos, abriéndolo a nuevas categorizaciones (Koch, 2002) que lo figurativizan como "contrafigura". En este marco, se propone que: 1) la utilización de construcciones posesivas iconiza la accesibilidad y persistencia referencial del poseedor por la semántica del determinante posesivo (Company Company, 2006, 2009), y por el contenido descriptivo de la expresión posesiva, que contribuye a la reactivación mental del poseedor al volver sobre la carga informativa codificada e instalada como "rutina cognitiva" por los empleos referenciales de los nominales definidos (Givón, 1992); 2) tales construcciones introducen características inherentes del poseedor (Tobin, 1995; Company Company, 2006, 2009), que refuerzan los dominios cognitivos en los que ha sido inscripto el destinatario, y, por lo tanto, el efecto de polemicidad
Resumo:
La novela de Mario Levrero El discurso vacío, escrita en forma de diario, se propone como una rutina de ejercicios que tienen como premisa la capacidad de la escritura de actuar sobre la conducta de quien escribe. Se plantea a la escritura como el medio para construir una forma de vida, donde el trabajo sobre la "forma" de la palabra (la grafía) supone un trabajo simultáneo sobre la forma-de-vida. Se trata de la narración de una vida donde ésta no es una obra sino un proceso objeto de una permanente reescritura que empieza cada vez que se toma la pluma y termina, momentáneamente, en el punto final, sólo para recomenzar en la próxima entrada. En la presente ponencia nos interesa analizar cómo esta escritura inicialmente dirigida a un fin se torna inoperante cuando el contenido se impone sobre la forma: la escritura, cuando ingresa "lo literario", pierde su capacidad "terapéutica". Aquello que apuntaba a un fin que está por fuera del texto deja de tener tal teleología y lo que ocurre entonces es que la escritura se convierte en un medio puro, es inoperante: una escritura sin obra para una forma de vida
Resumo:
En estas páginas se ha tomado el tema de la Ingeniería Sísmica como ejemplo y pretexto para mostrar la actitud del ingeniero: observación, comprensión, reflexión y generalización son virtudes comunes en el establecimiento de los paradigmas tanto científicos como técnicos. El ingeniero arranca de ellos, pero debe prolongar su actividad en la elaboración de artefactos que aprovechen las leyes establecidas para extraer un beneficio o conseguir un fin. Por eso el premio Nobel Simon habla de la ingeniería como la ciencia de lo artificial.El éxito o el fracaso del artefacto permite detectar nuevos problemas o establecer un Código de buenas prácticas al que atenerse. Este equilibrio entre práctica profesional e investigación de nuevas posibilidades es el que mantiene activa la llama de esta Escuela y mide la vitalidad de una especialidad. Si falla la creatividad se cae en la rutina y la obsolescencia, si falta la aplicación profesional se cae en el aislamiento. En cualquiera de los casos se pierde la competitividad, el mercado, y en definitiva, las señas de identidad de la profesión.
Resumo:
El análisis de la velocidad de carrera mediante sensores láser permite la obtención de datos en tiempo real siendo ventajosos frente a otros sistemas. El objetivo de este estudio fue valorar la validez y fiabilidad del sensor láser del sistema BioLaserSport® para el cálculo de velocidades medias y máximas mediante estadísticos relativos y absolutos. Los participantes fueron 17 varones (20.85 ± 1.54 años). Se utilizó un sensor láser tipo 1 (LDM301, Jenoptik, Germany) que registró posiciones de los deportistas a 2000 Hz. Los datos se trataron con la rutina DSL-30 creada con DasyLab v.10.0. Para la validación se utilizó un sistema de fotogrametría-2D con una cámara de alta velocidad (Exilim High Speed EX-F1, Casio) y SkillSpector v.1.3.2. (Video4coach, Grubbemollevej). Además, se utilizaron foto-células de doble haz (Polifemo Light, Microgate, Italy) y un cronómetro Racetime2 (Microgate, Italy). Se registraron, durante dos días, tres series de 30 m de carrera a máxima velocidad. El sensor láser proporcionó, con relación a la fotogrametría, diferencias en las velocidades medias y máximas de -0.11 m•s-1 y 0.14 m•s-1, respectivamente, con unos coeficientes de correlación superiores a 0.86, y mayores de 0.92 con las foto-células para las velocidades medias. Este mostró una excelente fiabilidad test-retest para las velocidades medias con un coeficiente de correlación intraclase (ICC) entre 0.7-0.9 y un error estándar de la media (SEM y SEM%), intrasesión e intersesión, menor de 0.05 m•s-1 y 0.12 m•s-1, respectivamente, y menores de 0.75% y de 2%, respectivamente. Para las velocidades máximas,los valores fueron menores de 0.10 m•s-1 y 0.17 m•s-1, respectivamente, y en ambos casos menores a 1.36% y 1,89%. El láser fue capaz de identificar mínimos cambios detectables (MDC y MDC%) intrasesión, para ambas variables, menores a 0.14 m•s-1 y 0.29 m•s-1, respectivamente (< 2.09% y < 3.76%) e intersesión, menores de 0.34 m•s-1 y 0.47 m•s-1 (< 5.56% y < 5.25%), respectivamente. En consecuencia, es un instrumento útil para el análisis de la evolución de la velocidad intrasujeto y entre sujetos en la carrera de velocidad entre 0-30 m, proporcionando resultados en tiempo real, pero se han de considerar los SEM, SEM%, MDC y MDC% para valorar la mejora del rendimiento.
Resumo:
El diccionario de Ciencias Hortícolas de la Sociedad Española de Ciencias Hortícolas, define el término fitopatometría de la siguiente manera: "medida y evaluación de las enfermedades de las plantas. Requiere conocimientos de los efectos y daños de las enfermedades y es muy utilizada en la evaluación de productos químicos y en la de la resistencia de un hospedador". En esta comunicación se utilizará para detectar: la presencia del inóculo primario en un suelo cultivado. La técnica es muy sencilla y consiste en mezclar una proporción de suelo (puede oscilar entre 0,01 g y 75 g) con un sustrato inerte (vermiculita), sembrar las plantas que se cultivan en el invernadero de donde se tomaron las muestras, poner el conjunto en una cámara de ambiente controlado (23-28ºC, 16 h luz/día, 12-14000 lux) y esperar un máximo de 45 días. Durante ese tiempo las plantas enfermas indicarán el patógeno o los patógenos fúngicos edáficos presentes. La fitopatometría puede ser utilizada como técnica de rutina en laboratorios de diagnóstico de enfermedades de plantas.
Resumo:
Los procedimientos de evaluación de la calidad de la voz basados en la valoración subjetiva a través de la percepción acústica por parte de un experto están bastante extendidos. Entre ellos,el protocolo GRBAS es el más comúnmente utilizado en la rutina clínica. Sin embargo existen varios problemas derivados de este tipo de estimaciones, el primero de los cuales es que se precisa de profesionales debidamente entrenados para su realización. Otro inconveniente reside en el hecho de que,al tratarse de una valoración subjetiva, múltiples circunstancias significativas influyen en la decisión final del evaluador, existiendo en muchos casos una variabilidad inter-evaluador e intra-evaluador en los juicios. Por estas razones se hace necesario el uso de parámetros objetivos que permitan realizar una valoración de la calidad de la voz y la detección de diversas patologías. Este trabajo tiene como objetivo comparar la efectividad de diversas técnicas de cálculo de parámetros representativos de la voz para su uso en la clasificación automática de escalas perceptuales. Algunos parámetros analizados serán los coeficientes Mel-Frequency Cepstral Coefficients(MFCC),las medidas de complejidad y las de ruido.Así mismo se introducirá un nuevo conjunto de características extraídas del Espectro de Modulación (EM) denominadas Centroides del Espectro de Modulación (CEM).En concreto se analizará el proceso de detección automática de dos de los cinco rasgos que componen la escala GRBAS: G y R. A lo largo de este documento se muestra cómo las características CEM proporcionan resultados similares a los de otras técnicas anteriormente utilizadas y propician en algún caso un incremento en la efectividad de la clasificación cuando son combinados con otros parámetros.
Resumo:
Aunque esta no es la primera vez que nuevas compañías y tecnologías revolucionan la forma de entender una industria determinada, los modelos over-the-top (OTT) han provocado una explosión en el consumo de contenidos a través de internet, una revolución en la forma tradicional de comunicarse, de disfrutar de nuevas posibilidades de ocio digital y, por tanto, una transformación a la hora de entender los modelos de monetización de las compañías, actualmente buscando su lugar en la nueva cadena de valor. Ya no cabe duda de que este tipo de servicios se han hecho un hueco en la rutina diaria de las personas pero, a pesar de su rápida adopción y alta tasa de penetración, todo parece indicar que es sólo el comienzo de una nueva era, donde estos nuevos modelos disruptivos, están todavía por definirse. Tras unos años de cambios en el sector de las comunicaciones y entretenimiento digital, es ahora el del consumo audiovisual de entretenimiento el que se está viviendo sus debates más intensos. Este trabajo, presentado como proyecto final dentro del Máster de Consultoría en Gestión de Empresas fruto de la colaboración entre la UPM y la AEC, analiza en profundidad los cambios que está generando la adopción de soluciones de vídeo-OTT en el mercado a todos los niveles: cambios en los patrones de comportamiento de las personas, impactos en los sectores tradicionales (y su traducción en términos económicos y legales), evolución de la tecnología, etc. Todos estos aspectos se visitan haciendo especial hincapié en la cadena de valor y los nuevos modelos de negocio derivados de estas nuevas soluciones permitiendo monetizar estos cambios en un mercado complejo. Como complemento, se presenta un análisis de una de las soluciones líderes en el mercado, NETFLIX. Profundizar en un modelo de negocio de una compañía como esta permite analizar las estrategias seguidas y resultados obtenidos en función de la caracterización del mercado existente en cada momento, tomando notas para tener en cuenta en el planteamiento de modelos de negocio similares. Adicionalmente, en el apartado de recomendaciones para la cadena de valor, se establecen una serie de modelos de negocio que permitan enfrentar la aparición y crecimiento de los servicios OTT desde dos puntos de vista: diferenciación y participación de los mismos. Las aportaciones de valor presentadas, prestan especial atención también sobre las operadoras de telecomunicaciones, uno de los sectores más castigados por la entrada en el mercado de las soluciones de vídeo-OTT, junto con la televisión de pago. Por último, se utilizan todas las conclusiones extraídas de los anteriores apartados (que sirven como caracterización de entorno) para establecer un plan de negocio definiendo una propuesta que podría ser interesante desarrollar en el mercado español, carente actualmente de una solución líder que destaque, como ocurre en otros países. En base a este trabajo, se puede concluir que este tipo de servicios de vídeo-OTT presentan un potencial todavía por desarrollar y que conviene incluir en las estrategias de los próximos años de las compañías del sector, si éstas no quieren perder cuota de un mercado que sin duda evolucionará y revolucionará el mundo de la televisión tal y como existe actualmente.
Resumo:
El primer procesamiento estricto realizado con el software científico Bernese y contemplando las más estrictas normas de cálculo recomendadas internacionalmente, permitió obtener un campo puntual de alta exactitud, basado en la integración y estandarización de los datos de una red GPS ubicada en Costa Rica. Este procesamiento contempló un total de 119 semanas de datos diarios, es decir unos 2,3 años, desde enero del año 2009 hasta abril del año 2011, para un total de 30 estaciones GPS, de las cuales 22 están ubicadas en el territorio nacional de Costa Rica y 8 internaciones pertenecientes a la red del Sistema Geocéntrico para las Américas (SIRGAS). Las denominadas soluciones semilibres generaron, semana a semana, una red GPS con una alta exactitud interna definida por medio de los vectores entre las estaciones y las coordenadas finales de la constelación satelital. La evaluación semanal dada por la repetibilidad de las soluciones brindó en promedio errores de 1,7 mm, 1,4 mm y 5,1 mm en las componentes [n e u], confirmando una alta consistencia en estas soluciones. Aunque las soluciones semilibres poseen una alta exactitud interna, las mismas no son utilizables para fines de análisis cinemático, pues carecen de un marco de referencia. En Latinoamérica, la densificación del Marco Internacional Terrestre de Referencia (ITRF), está representado por la red de estaciones de operación continua GNSS de SIRGAS, denominada como SIRGAS-CON. Por medio de las denominadas coordenadas semanales finales de las 8 estaciones consideradas como vínculo, se refirió cada una de las 119 soluciones al marco SIRGAS. La introducción del marco de referencia SIRGAS a las soluciones semilibres produce deformaciones en estas soluciones. Las deformaciones de las soluciones semilibres son producto de las cinemática de cada una de las placas en las que se ubican las estaciones de vínculo. Luego de efectuado el amarre semanal a las coordenadas SIRGAS, se hizo una estimación de los vectores de velocidad de cada una de las estaciones, incluyendo las de amarre, cuyos valores de velocidad se conocen con una alta exactitud. Para la determinación de las velocidades de las estaciones costarricenses, se programó una rutina en ambiente MatLab, basada en una ajuste por mínimos cuadrados. Los valores obtenidos en el marco de este proyecto en comparación con los valores oficiales, brindaron diferencias promedio del orden de los 0,06 cm/a, -0,08 cm/a y -0,10 cm/a respectivamente para las coordenadas [X Y Z]. De esta manera se logró determinar las coordenadas geocéntricas [X Y Z]T y sus variaciones temporales [vX vY vZ]T para el conjunto de 22 estaciones GPS de Costa Rica, dentro del datum IGS05, época de referencia 2010,5. Aunque se logró una alta exactitud en los vectores de coordenadas geocéntricas de las 22 estaciones, para algunas de las estaciones el cálculo de las velocidades no fue representativo debido al relativo corto tiempo (menos de un año) de archivos de datos. Bajo esta premisa, se excluyeron las ocho estaciones ubicadas al sur de país. Esto implicó hacer una estimación del campo local de velocidades con solamente veinte estaciones nacionales más tres estaciones en Panamá y una en Nicaragua. El algoritmo usado fue el denominado Colocación por Mínimos Cuadrados, el cual permite la estimación o interpolación de datos a partir de datos efectivamente conocidos, el cual fue programado mediante una rutina en ambiente MatLab. El campo resultante se estimó con una resolución de 30' X 30' y es altamente constante, con una velocidad resultante promedio de 2,58 cm/a en una dirección de 40,8° en dirección noreste. Este campo fue validado con base en los datos del modelo VEMOS2009, recomendado por SIRGAS. Las diferencias de velocidad promedio para las estaciones usadas como insumo para el cálculo del campo fueron del orden los +0,63 cm/a y +0,22 cm/a para los valores de velocidad en latitud y longitud, lo que supone una buena determinación de los valores de velocidad y de la estimación de la función de covarianza empírica, necesaria para la aplicación del método de colocación. Además, la grilla usada como base para la interpolación brindó diferencias del orden de -0,62 cm/a y -0,12 cm/a para latitud y longitud. Adicionalmente los resultados de este trabajo fueron usados como insumo para hacer una aproximación en la definición del límite del llamado Bloque de Panamá dentro del territorio nacional de Costa Rica. El cálculo de las componentes del Polo de Euler por medio de una rutina programa en ambiente MatLab y aplicado a diferentes combinaciones de puntos no brindó mayores aportes a la definición física de este límite. La estrategia lo que confirmó fue simplemente la diferencia en la dirección de todos los vectores velocidad y no permitió reveló revelar con mayor detalle una ubicación de esta zona dentro del territorio nacional de Costa Rica. ABSTRACT The first strict processing performed with the Bernese scientific software and contemplating the highest standards internationally recommended calculation, yielded a precise field of high accuracy, based on the integration and standardization of data from a GPS network located in Costa Rica. This processing watched a total of 119 weeks of daily data, is about 2.3 years from January 2009 to April 2011, for a total of 30 GPS stations, of which 22 are located in the country of Costa Rica and 8 hospitalizations within the network of Geocentric System for the Americas (SIRGAS). The semi-free solutions generated, every week a GPS network with high internal accuracy defined by vectors between stations and the final coordinates of the satellite constellation. The weekly evaluation given by repeatability of the solutions provided in average errors of 1.7 mm 1.4 mm and 5.1 mm in the components [n e u], confirming a high consistency in these solutions. Although semi-free solutions have a high internal accuracy, they are not used for purposes of kinematic analysis, because they lack a reference frame. In Latin America, the densification of the International Terrestrial Reference Frame (ITRF), is represented by a network of continuously operating GNSS stations SIRGAS, known as SIRGAS-CON. Through weekly final coordinates of the 8 stations considered as a link, described each of the solutions to the frame 119 SIRGAS. The introduction of the frame SIRGAS to semi-free solutions generates deformations. The deformations of the semi-free solutions are products of the kinematics of each of the plates in which link stations are located. After SIRGAS weekly link to SIRGAS frame, an estimate of the velocity vectors of each of the stations was done. The velocity vectors for each SIRGAS stations are known with high accuracy. For this calculation routine in MatLab environment, based on a least squares fit was scheduled. The values obtained compared to the official values, gave average differences of the order of 0.06 cm/yr, -0.08 cm/yr and -0.10 cm/yr respectively for the coordinates [XYZ]. Thus was possible to determine the geocentric coordinates [XYZ]T and its temporal variations [vX vY vZ]T for the set of 22 GPS stations of Costa Rica, within IGS05 datum, reference epoch 2010.5. The high accuracy vector for geocentric coordinates was obtained, however for some stations the velocity vectors was not representative because of the relatively short time (less than one year) of data files. Under this premise, the eight stations located in the south of the country were excluded. This involved an estimate of the local velocity field with only twenty national stations plus three stations in Panama and Nicaragua. The algorithm used was Least Squares Collocation, which allows the estimation and interpolation of data from known data effectively. The algorithm was programmed with MatLab. The resulting field was estimated with a resolution of 30' X 30' and is highly consistent with a resulting average speed of 2.58 cm/y in a direction of 40.8° to the northeast. This field was validated based on the model data VEMOS2009 recommended by SIRGAS. The differences in average velocity for the stations used as input for the calculation of the field were of the order of +0.63 cm/yr, +0.22 cm/yr for the velocity values in latitude and longitude, which is a good determination velocity values and estimating the empirical covariance function necessary for implementing the method of application. Furthermore, the grid used as the basis for interpolation provided differences of about -0.62 cm/yr, -0.12 cm/yr to latitude and longitude. Additionally, the results of this investigation were used as input to an approach in defining the boundary of Panama called block within the country of Costa Rica. The calculation of the components of the Euler pole through a routine program in MatLab and applied to different combinations of points gave no further contributions to the physical definition of this limit. The strategy was simply confirming the difference in the direction of all the velocity vectors and not allowed to reveal more detail revealed a location of this area within the country of Costa Rica.
Resumo:
Una instalación de ordeño está formada por un conjunto de locales y/o zonas agrupados en un edificio específico. Los criterios generales de diseño que deben guiar el Proyecto y construcción de esta instalación deben incluir : las posibilidades de expansión del rebaño y, por tanto, de la instalación de ordeño y la cuidadosa y justificada determinación del nivel de automatización. También se debe tener en cuenta la lotificación del rebaño, el número de animales y de ordeñadores y el tiempo disponible para ordeñar, así como la rutina de ordeño que se pretende seguir. Todo ello condicionará el número de unidades de ordeño que pueden manejarse y, por tanto, la dimensión de la instalación. Siempre se debe tener presente que la elevada inversión debe justificarse con un alto grado de utilización de la instalación. El Centro de Ordeño debe ubicarse de forma que se facilite la ampliación del mismo y el adecuado movimiento de los animales. Constará de diversas dependencias, entre las que siempre son exigibles el patio de espera, la sala de ordeño y la lechería, siendo recomendable, además, contemplar una sala de máquinas , una oficina y aseo -vestuario. Se debe prestar especial atención a otros detalles constructivos , pues no considerarlos puede llevar a que una instalación bien concebida y diseñada tenga, posteriormente, serios problemas de funcionamiento y de mantenimiento. Entre ellos, podemos citar, la profundidad y anchura del foso de ordeño, el fácil acceso a éste, el material con que se revisten paredes , suelos y techo. Tampoco debemos olvidar la importancia del alumbrado y de las condiciones ambientales en un lugar donde los animales y, sobre todo, los operarios, pasan muchas horas a lo largo del año.
Resumo:
El sector del vacuno de leche está experimentando una paulatina concentración de la producción en explotaciones de mayor tamaño, con vacas de mayor producción que se ordeñan en salas cada vez más grandes. Es en este contexto en el que el manejo del ganado antes del ordeño cobra aún más importancia de la que siempre ha tenido, y donde la tecnología puede desempeñar un importante papel. Se entiende como preordeño lo que acontece hasta el momento en que se coloca la unidad de ordeño en las vacas, habitualmente denominado rutina preordeño.
Resumo:
La introducción de las cirugías de mínima invasión en rutina clínica ha provocado la incorporación de los sistemas de vídeo dentro del quirófano. Así, estas técnicas proporcionan al cirujano imágenes que antes solo podían ser vistas mediante cirugía abierta. Los vídeos obtenidos en las intervenciones son almacenados en repositorios. El uso posterior de estos vídeos se ve limitado generalmente a su reproducción, debido a las dificultades de clasificación y gestión. La información que contienen estos repositorios puede ser explotada, reutilizando el conocimiento obtenido en cirugías similares. En este artículo de investigación se presenta el diseño de un módulo de gestión de conocimiento (MGC) para un repositorio de vídeos de cirugía de mínima invasión (CMI). El objetivo del módulo es gestionar y reutilizar la información contenida en el repositorio de vídeos laparoscópicos, para que puedan ser utilizadas con las experiencias previas en entornos de formación de nuevos cirujanos. Para este fin, se han implementado técnicas de recuperación de imagen y vídeo basadas en sus contenidos visuales (CBIR y CBVR). El MGC permite la recuperación de imágenes/vídeos, proporcionando información sobre la tarea que se está realizando en la escena quirúrgica. Los resultados obtenidos en este trabajo muestran la posibilidad de recuperar vídeos de CMI, a partir del instrumental presente en la escena quirúrgica.
Resumo:
En el mundo actual las aplicaciones basadas en sistemas biométricos, es decir, aquellas que miden las señales eléctricas de nuestro organismo, están creciendo a un gran ritmo. Todos estos sistemas incorporan sensores biomédicos, que ayudan a los usuarios a controlar mejor diferentes aspectos de la rutina diaria, como podría ser llevar un seguimiento detallado de una rutina deportiva, o de la calidad de los alimentos que ingerimos. Entre estos sistemas biométricos, los que se basan en la interpretación de las señales cerebrales, mediante ensayos de electroencefalografía o EEG están cogiendo cada vez más fuerza para el futuro, aunque están todavía en una situación bastante incipiente, debido a la elevada complejidad del cerebro humano, muy desconocido para los científicos hasta el siglo XXI. Por estas razones, los dispositivos que utilizan la interfaz cerebro-máquina, también conocida como BCI (Brain Computer Interface), están cogiendo cada vez más popularidad. El funcionamiento de un sistema BCI consiste en la captación de las ondas cerebrales de un sujeto para después procesarlas e intentar obtener una representación de una acción o de un pensamiento del individuo. Estos pensamientos, correctamente interpretados, son posteriormente usados para llevar a cabo una acción. Ejemplos de aplicación de sistemas BCI podrían ser mover el motor de una silla de ruedas eléctrica cuando el sujeto realice, por ejemplo, la acción de cerrar un puño, o abrir la cerradura de tu propia casa usando un patrón cerebral propio. Los sistemas de procesamiento de datos están evolucionando muy rápido con el paso del tiempo. Los principales motivos son la alta velocidad de procesamiento y el bajo consumo energético de las FPGAs (Field Programmable Gate Array). Además, las FPGAs cuentan con una arquitectura reconfigurable, lo que las hace más versátiles y potentes que otras unidades de procesamiento como las CPUs o las GPUs.En el CEI (Centro de Electrónica Industrial), donde se lleva a cabo este TFG, se dispone de experiencia en el diseño de sistemas reconfigurables en FPGAs. Este TFG es el segundo de una línea de proyectos en la cual se busca obtener un sistema capaz de procesar correctamente señales cerebrales, para llegar a un patrón común que nos permita actuar en consecuencia. Más concretamente, se busca detectar cuando una persona está quedándose dormida a través de la captación de unas ondas cerebrales, conocidas como ondas alfa, cuya frecuencia está acotada entre los 8 y los 13 Hz. Estas ondas, que aparecen cuando cerramos los ojos y dejamos la mente en blanco, representan un estado de relajación mental. Por tanto, este proyecto comienza como inicio de un sistema global de BCI, el cual servirá como primera toma de contacto con el procesamiento de las ondas cerebrales, para el posterior uso de hardware reconfigurable sobre el cual se implementarán los algoritmos evolutivos. Por ello se vuelve necesario desarrollar un sistema de procesamiento de datos en una FPGA. Estos datos se procesan siguiendo la metodología de procesamiento digital de señales, y en este caso se realiza un análisis de la frecuencia utilizando la transformada rápida de Fourier, o FFT. Una vez desarrollado el sistema de procesamiento de los datos, se integra con otro sistema que se encarga de captar los datos recogidos por un ADC (Analog to Digital Converter), conocido como ADS1299. Este ADC está especialmente diseñado para captar potenciales del cerebro humano. De esta forma, el sistema final capta los datos mediante el ADS1299, y los envía a la FPGA que se encarga de procesarlos. La interpretación es realizada por los usuarios que analizan posteriormente los datos procesados. Para el desarrollo del sistema de procesamiento de los datos, se dispone primariamente de dos plataformas de estudio, a partir de las cuales se captarán los datos para después realizar el procesamiento: 1. La primera consiste en una herramienta comercial desarrollada y distribuida por OpenBCI, proyecto que se dedica a la venta de hardware para la realización de EEG, así como otros ensayos. Esta herramienta está formada por un microprocesador, un módulo de memoria SD para el almacenamiento de datos, y un módulo de comunicación inalámbrica que transmite los datos por Bluetooth. Además cuenta con el mencionado ADC ADS1299. Esta plataforma ofrece una interfaz gráfica que sirve para realizar la investigación previa al diseño del sistema de procesamiento, al permitir tener una primera toma de contacto con el sistema. 2. La segunda plataforma consiste en un kit de evaluación para el ADS1299, desde la cual se pueden acceder a los diferentes puertos de control a través de los pines de comunicación del ADC. Esta plataforma se conectará con la FPGA en el sistema integrado. Para entender cómo funcionan las ondas más simples del cerebro, así como saber cuáles son los requisitos mínimos en el análisis de ondas EEG se realizaron diferentes consultas con el Dr Ceferino Maestu, neurofisiólogo del Centro de Tecnología Biomédica (CTB) de la UPM. Él se encargó de introducirnos en los distintos procedimientos en el análisis de ondas en electroencefalogramas, así como la forma en que se deben de colocar los electrodos en el cráneo. Para terminar con la investigación previa, se realiza en MATLAB un primer modelo de procesamiento de los datos. Una característica muy importante de las ondas cerebrales es la aleatoriedad de las mismas, de forma que el análisis en el dominio del tiempo se vuelve muy complejo. Por ello, el paso más importante en el procesamiento de los datos es el paso del dominio temporal al dominio de la frecuencia, mediante la aplicación de la transformada rápida de Fourier o FFT (Fast Fourier Transform), donde se pueden analizar con mayor precisión los datos recogidos. El modelo desarrollado en MATLAB se utiliza para obtener los primeros resultados del sistema de procesamiento, el cual sigue los siguientes pasos. 1. Se captan los datos desde los electrodos y se escriben en una tabla de datos. 2. Se leen los datos de la tabla. 3. Se elige el tamaño temporal de la muestra a procesar. 4. Se aplica una ventana para evitar las discontinuidades al principio y al final del bloque analizado. 5. Se completa la muestra a convertir con con zero-padding en el dominio del tiempo. 6. Se aplica la FFT al bloque analizado con ventana y zero-padding. 7. Los resultados se llevan a una gráfica para ser analizados. Llegados a este punto, se observa que la captación de ondas alfas resulta muy viable. Aunque es cierto que se presentan ciertos problemas a la hora de interpretar los datos debido a la baja resolución temporal de la plataforma de OpenBCI, este es un problema que se soluciona en el modelo desarrollado, al permitir el kit de evaluación (sistema de captación de datos) actuar sobre la velocidad de captación de los datos, es decir la frecuencia de muestreo, lo que afectará directamente a esta precisión. Una vez llevado a cabo el primer procesamiento y su posterior análisis de los resultados obtenidos, se procede a realizar un modelo en Hardware que siga los mismos pasos que el desarrollado en MATLAB, en la medida que esto sea útil y viable. Para ello se utiliza el programa XPS (Xilinx Platform Studio) contenido en la herramienta EDK (Embedded Development Kit), que nos permite diseñar un sistema embebido. Este sistema cuenta con: Un microprocesador de tipo soft-core llamado MicroBlaze, que se encarga de gestionar y controlar todo el sistema; Un bloque FFT que se encarga de realizar la transformada rápida Fourier; Cuatro bloques de memoria BRAM, donde se almacenan los datos de entrada y salida del bloque FFT y un multiplicador para aplicar la ventana a los datos de entrada al bloque FFT; Un bus PLB, que consiste en un bus de control que se encarga de comunicar el MicroBlaze con los diferentes elementos del sistema. Tras el diseño Hardware se procede al diseño Software utilizando la herramienta SDK(Software Development Kit).También en esta etapa se integra el sistema de captación de datos, el cual se controla mayoritariamente desde el MicroBlaze. Por tanto, desde este entorno se programa el MicroBlaze para gestionar el Hardware que se ha generado. A través del Software se gestiona la comunicación entre ambos sistemas, el de captación y el de procesamiento de los datos. También se realiza la carga de los datos de la ventana a aplicar en la memoria correspondiente. En las primeras etapas de desarrollo del sistema, se comienza con el testeo del bloque FFT, para poder comprobar el funcionamiento del mismo en Hardware. Para este primer ensayo, se carga en la BRAM los datos de entrada al bloque FFT y en otra BRAM los datos de la ventana aplicada. Los datos procesados saldrán a dos BRAM, una para almacenar los valores reales de la transformada y otra para los imaginarios. Tras comprobar el correcto funcionamiento del bloque FFT, se integra junto al sistema de adquisición de datos. Posteriormente se procede a realizar un ensayo de EEG real, para captar ondas alfa. Por otro lado, y para validar el uso de las FPGAs como unidades ideales de procesamiento, se realiza una medición del tiempo que tarda el bloque FFT en realizar la transformada. Este tiempo se compara con el tiempo que tarda MATLAB en realizar la misma transformada a los mismos datos. Esto significa que el sistema desarrollado en Hardware realiza la transformada rápida de Fourier 27 veces más rápido que lo que tarda MATLAB, por lo que se puede ver aquí la gran ventaja competitiva del Hardware en lo que a tiempos de ejecución se refiere. En lo que al aspecto didáctico se refiere, este TFG engloba diferentes campos. En el campo de la electrónica: Se han mejorado los conocimientos en MATLAB, así como diferentes herramientas que ofrece como FDATool (Filter Design Analysis Tool). Se han adquirido conocimientos de técnicas de procesado de señal, y en particular, de análisis espectral. Se han mejorado los conocimientos en VHDL, así como su uso en el entorno ISE de Xilinx. Se han reforzado los conocimientos en C mediante la programación del MicroBlaze para el control del sistema. Se ha aprendido a crear sistemas embebidos usando el entorno de desarrollo de Xilinx usando la herramienta EDK (Embedded Development Kit). En el campo de la neurología, se ha aprendido a realizar ensayos EEG, así como a analizar e interpretar los resultados mostrados en el mismo. En cuanto al impacto social, los sistemas BCI afectan a muchos sectores, donde destaca el volumen de personas con discapacidades físicas, para los cuales, este sistema implica una oportunidad de aumentar su autonomía en el día a día. También otro sector importante es el sector de la investigación médica, donde los sistemas BCIs son aplicables en muchas aplicaciones como, por ejemplo, la detección y estudio de enfermedades cognitivas.