998 resultados para DISPOSITIVO DE NO REINHALACION (NRMASK)


Relevância:

10.00% 10.00%

Publicador:

Resumo:

Durante el año 1995 se encaró el proyecto "Telémetro Láser aplicable a robótica" en el ámbito de la Universidad Tecnológica Nacional-Facultad Regional Córdoba. Este proyecto pretendía demostrar la factibilidad de utilizar fuentes láser y dispositivos de acoplamiento de carga (CCD) lineales para realizar mediciones de distancia por triangulación óptica. De acuerdo a lo propuesto, este prototipo está constituido por un "iluminador" láser (láser de HeNe), un sistema óptico (cámara fotográfica); el sistema detector consiste en un CCD controlado por un microcontrolador. Las salidas son un display donde se lee la distancia y una salida adicional vía RS 232. Luego de haber concretado el desarrollo del prototipo donde se demuestra la factibilidad del proyecto y del funcionamiento del telémetro láser, la presente propuesta consiste en realizar una optimización del mismo donde se desarrollarán y aplicarán nuevas tecnologías, a los efectos de concretar un telémetro láser aplicable a robótica. Objetivos Específicos En el presente proyecto se propone un medidor de distancias láser compacto que permita medir distancias entre unos centímetros y algunos metros. En particular, se pretende incorporarlo al proyecto "Plataforma autoguiada" presentado por el Grupo GIII de la UTN, como un sensor adicional ya que la medición exacta y confiable de la distancia es esencial para el desplazamiento inteligente del mismo. El dispositivo permitirá además otras aplicaciones aparte de la robótica. Fundamentalmente, en aquellas donde se deseen medir distancias pequeñas, sin contacto y con precisión. Se prevé una posible aplicación para la industria como "calibres sin contacto".

Relevância:

10.00% 10.00%

Publicador:

Resumo:

La electrificación de nubes de tormentas es un fenómeno íntimamente relacionado con los procesos microfísicos que ocurren dentro de ellas. Uno de los procesos que parece jugar un rol preponderante en la separación de carga eléctrica dentro de las nubes son las interacciones entre partículas de hielo. Estudios de laboratorio han mostrado que un granizo puede adquirir una carga eléctrica como consecuencia de colisiones con partículas de hielo más pequeñas. La magnitud y signo del cargado es función de parámetros tales como: la temperatura, la concentración y espectro de gotas de nube presente, la velocidad de impacto y el tamaño de las partículas interactuantes. Este proyecto está orientado hacia dos actividades fundamentales: por un lado, el desarrollo de nueva infraestructura experimental con el propósito de ampliar la gama de técnicas experimentales del Grupo de Física de la Atmósfera (GFA); y, por otro, la utilización de dicha infraestructura para obtener información acerca del cargado eléctrico de un granizo simulado durante interacciones con cristales de hielo en condiciones similares a las que ocurren dentro de las nubes. La infraestructura a desarrollar consiste esencialmente en una cámara de nube de temperatura controlable entre 0 y -30 ºC. Dentro de la cámara se ubicará un granizo simulado conectado a sensores sensibles de carga eléctrica, construidos especialmente para detectar el cargado del granizo como consecuencia de impactos con cristales de hielo presentes en las nubes. Mediante la utilización del dispositivo experimental se podrá seleccionar también la velocidad a la que impactarán los cristales de hielo. En definitiva, se estudiará el cargado eléctrico del granizo en función de los distintos parámetros antes mencionados, con el objetivo de aportar mayor información sobre los mecanismos de transferencias de carga en colisiones entre partículas de hielo y contribuir al conocimiento de los procesos de electrificación de nubes de tormenta.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Los eventos transitorios únicos analógicos (ASET, Analog Single Event Transient) se producen debido a la interacción de un ión pesado o un protón de alta energía con un dispositivo sensible de un circuito analógico. La interacción del ión con un transistor bipolar o de efecto de campo MOS induce pares electrón-hueco que provocan picos que pueden propagarse a la salida del componente analógico provocando transitorios que pueden inducir fallas en el nivel sistema. Los problemas más graves debido a este tipo de fenómeno se dan en el medioambiente espacial, muy rico en iones pesados. Casos típicos los constituyen las computadoras de a bordo de satélites y otros artefactos espaciales. Sin embargo, y debido a la continua contracción de dimensiones de los transistores (que trae aparejado un aumento de sensibilidad), este fenómeno ha comenzado a observarse a nivel del mar, provocado fundamentalmente por el impacto de neutrones atmosféricos. Estos efectos pueden provocar severos problemas a los sistemas informáticos con interfaces analógicas desde las que obtienen datos para el procesamiento y se han convertido en uno de los problemas más graves a los que tienen que hacer frente los diseñadores de sistemas de alta escala de integración. Casos típicos son los Sistemas en Chip que incluyen módulos de procesamiento de altas prestaciones como las interfaces analógicas.El proyecto persigue como objetivo general estudiar la susceptibilidad de sistemas informáticos a ASETs en sus secciones analógicas, proponiendo estrategias para la mitigación de los errores.Como objetivos específicos se pretende: -Proponer nuevos modelos de ASETs basados en simulaciones en el nivel dispositivo y resueltas por el método de elementos finitos.-Utilizar los modelos para identificar las secciones más propensas a producir errores y consecuentemente para ser candidatos a la aplicación de técnicas de endurecimiento a radiaciones.-Utilizar estos modelos para estudiar la naturaleza de los errores producidos en sistemas de procesamiento de datos.-Proponer soluciones novedosas para la mitigación de estos efectos en los mismos circuitos analógicos evitando su propagación a las secciones digitales.-Proponer soluciones para la mitigación de los efectos en el nivel sistema.Para llevar a cabo el proyecto se plantea un procedimiento ascendente para las investigaciones a realizar, comenzando por descripciones en el nivel físico para posteriormente aumentar el nivel de abstracción en el que se encuentra modelado el circuito. Se propone el modelado físico de los dispositivos MOS y su resolución mediante el Método de Elementos Finitos. La inyección de cargas en las zonas sensibles de los modelos permitirá determinar los perfiles de los pulsos de corriente que deben inyectarse en el nivel circuito para emular estos efectos. Estos procedimientos se realizarán para los distintos bloques constructivos de las interfaces analógicas, proponiendo estrategias de mitigación de errores en diferentes niveles.Los resultados esperados del presente proyecto incluyen hardware para detección de errores y tolerancia a este tipo de eventos que permitan aumentar la confiabilidad de sistemas de tratamiento de la información, así como también nuevos datos referentes a efectos de la radiación en semiconductores, nuevos modelos de fallas transitorias que permitan una simulación de estos eventos en el nivel circuito y la determinación de zonas sensibles de interfaces analógicas típicas que deben ser endurecidas para radiación.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Identificación y caracterización del problema: El problema que guía este proyecto, pretende dar respuesta a interrogantes tales como: ¿De qué modo el tipo de actividades que se diseñan, se constituyen en dispositivos posibilitadores de la comprensión de los temas propios de cada asignatura, por parte de los alumnos? A partir de esta pregunta, surge la siguiente: Al momento de resolver las actividades, ¿qué estrategias cognitivas ponen en juego los estudiantes? y ¿cuáles de ellas favorecen procesos de construcción del conocimiento? Hipótesis: - Las asignaturas cuyas actividades están elaboradas bajo la metodología de Aprendizaje Basado en Problemas y Estudio de Casos, propician aprendizajes significativos por parte de los estudiantes. - Las actividades elaboradas bajo la metodología del Aprendizaje Basado en Problemas y el Estudio de Casos requieren de procesos cognitivos más complejos que los que se implementan en las de tipo tradicional. Objetivo: - Identificar el impacto que tienen las actividades de aprendizaje de tipo tradicional y las elaboradas bajo la metodología de Aprendizaje Basado en Problemas y Estudio de Casos, en el aprendizaje de los alumnos. Materiales y Métodos: a) Análisis de las actividades de aprendizaje del primero y segundo año de la carrera de Abogacía, bajo lamodalidad a Distancia. b) Entrevistas tanto a docentes contenidistas como así también a los tutores. c) Encuestas y entrevistas a los alumnos. Resultados esperados: Se pretende confirmar que las actividades de aprendizaje, diseñadas bajo la metodología del Aprendizaje Basado en Problemas y el Estudio de Casos, promueven aprendizajes significativos en los alumnos. Importancia del proyecto y pertinencia: La relevancia del presente proyecto se podría identificar a través de dos grandes variables vinculadas entre sí: la relacionada con el dispositivo didáctico (estrategias implementadas por los alumnos) y la referida a lo institucional (carácter innovador de la propuesta de enseñanza y posibilidad de extenderla a otras cátedras). El presente proyecto pretende implementar mejoras en el diseño de las actividades de aprendizaje, a fin de promover en los alumnos la generación de ideas y soluciones responsables y el desarrollo de su capacidad analítica y reflexiva.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Las nociones teóricas que constituyen el dispositivo conceptual del proyecto orientan el trabajo heurístico y circunscriben sus alcances y limitaciones. Lo que se pretende en esta nueva etapa es construir una teoría de análisis del discurso saramaguiano desde su intelección ético-política, a través de las nociones bajtinianas de «discurso, epistemología, antagonismo, ideología, sujeto y poder»(1) y recuperar conclusiones anteriores como la afirmación de que la dimensión ideológica del posicionamiento ético-político supone una «opción ética, social y política por las víctimas de la opresión y por quienes la combaten» (2). El «recorte» procedimental de las categorías enunciadas sirve como línea transversal de lectura que despliega las significaciones narrativas y las transforma en enunciados de valor y toma de posición. La dialéctica derechos/deberes, en la narrativa saramaguiana, exige una revisión histórica, que articulada a través de la memoria entendida en singular, recoge las tesis benjaminianas sobre el «concepto de historia». Estas operan sobre el campo de estudio que es el «pasado» y recuperan las voces acalladas de los «oprimidos», postulando una lectura «a contrapelo» de su versión oficial. El trabajo analítico focalizará en los modos de perduración de la memoria y la capacidad pregnante de irrumpir en el presente instaurando nuevos modos discursivos de resistencia. Desde esta perspectiva, la ficción saramaguiana se convierte en un campo propicio para la reflexión sobre los derechos y deberes humanos como fundamentos de la responsabilidad y la obligación ética y visibiliza la opresión que ejercen políticas, ideologías, estados, sociedad y ciudadanos. La conjunción bipartita de las nociones destacadas y su dinamicidad dialéctica aseguran la constitución de un referencial teórico que pretende instalar en el aparato crítico sobre la ficción del autor portugués, un dispositivo conceptual a partir del cual dialogar con el pensamiento y la filosofía contemporáneos.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

El proyecto pretende analizar la definición de políticas públicas sobre pobreza y ambiente como instancias de visibilización de posiciones y discursividades en conflicto sobre la (des)igualdad. Asimismo pretende entender la formulación de políticas públicas como instancias en que los Estados institucionalizan una definición sobre la (des)igualdad que muchas veces, paradójicamente, resulta en la instauración de exclusiones y el fortalecimiento de regímenes de dominación. Entre las diversas hipótesis que guían el proyecto la más abarcativa sostiene que las decisiones, los modos y campos de intervención definidos en la política pública constituyen en sí mismos un espacio discursivo en el que se establecen definiciones y plasman matrices ideológicas respecto de la (des)igualdad. Pues a partir de ellos se visibilizan operaciones específicas de inclusión/exclusión, igualdad/desigualdad, prohibición/habilitación, etc.; se identifican y caracterizan sujetos; así como también un determinado orden normativo de relaciones y prácticas. No obstante encontrarse legalmente instituida la igualdad como principio subyacente a todo el ordenamiento de derechos, en la práctica las desigualdades se hacen patentes. Éstas son especialmente relevantes en tres áreas de políticas públicas: el trabajo, el hábitat y sexualidad. Consecuentemente, se propone 1. analizar el dispositivo de regulación tal como se materializa en las decisiones, leyes y políticas públicas del Estado Provincial; 2. Esclarecer las disputas y/o articulaciones de orientaciones y prácticas de distintos ámbitos institucionales –expresamente referimos al conjunto de actores que se activan y pujan frente al contenido y carácter de las decisiones públicas; 3. estudiar las prácticas de resistencia frente a las regulaciones instituidas.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

IDENTIFICACION DEL PROBLEMA DE ESTUDIO: La extracción de aceite de soja, de contenido igual o menor al 20% en peso de materia seca, se realiza con solvente. El aceite se encuentra dentro de las células en organellas, por lo tanto las células de la semilla deben ser destruídas para que el aceite se encuentre disponible a la solubilización en el solvente. HIPOTESIS: En trabajos anteriores se ha demostrado que es posible aplicar una hidrólisis multienzimática sobre laminado de soja para aumentar el rendimiento de la extracción de aceite con hexano (Grasso, F. y col, 2002). Si esta operación es adecuada, el proceso puede aumentar la producción de aceite sin aumentar la capacidad de la planta. Utilizando un procedimiento de "extrusión reactiva", el reactor puede funcionar en forma continua con interacción completa de la solución enzimática y el laminado de soja, sin restricciones difusivas. En la convocatoria anterior del PID se desarrolló el plan de trabajo para llegar a la construcción del reactor. En esta convocatoria se plantea continuar con los estudios necesarios PLANTEO DE OBJETIVOS: Modelado y diseño de un Extrusor Reactivo Multienzimático de Tornillo Simple, adaptado a la línea de proceso convencional para la extracción de aceite de soja por solvente, para lograr aumento en el rendimiento de extracción sin modificar la capacidad instalada. MATERIALES Láminas de soja (Aceitera Bunge S. A.). Enzimas: alfa-amilasa, proteasa, celulasa, hemicelulasa, glucoamilasa y pectinasa (Enzyme Development Corporation - NY). Reómetro (Physica MCR 301-Anton Paar). Dispositivo para modelizado. Reactor. METODOS: Construcción de dispositivo para la simulación de la reacción multienzimática dentro del extrusor. Obtención de datos reológicos del material tratado. Modelado del comportamiento y comparación con las muestras sin enzimas. RESULTADOS ESPERADOS: Construcción del dispositivo para el pretratamiento multienzimático de laminado de soja para la extracción de aceite a escala de laboratorio y planteo del escalado industrial. IMPORTANCIA DEL PROYECTO: El aceite y harina de soja han evolucionado favorablemente, adquiriendo mayor importancia la obtención de aceite debido al impulso por la producción de biocombustible y la exportación a países como China, donde grandes empresas han firmado contratos por cantidades de 120mil Tn de aceite. Este tipo de reactor, permite la posibilidad de realizar una modificación química que pueda adaptarse a la línea de proceso ya existente. Se logra además mejorar aspectos operativos como la reducción en la cantidad de solvente utilizado, teniendo en cuenta los intentos actuales por prescindir del uso de estas sustancias, ahorro de energía y mejor calidad del producto final.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

FUNDAMENTO: O transplante cardíaco enfrenta o grave problema da escassez de doadores. Estima-se que entre 20% e 40% dos pacientes falecem na fila de espera. Para esses pacientes, a utilização de dispositivos de assistência circulatória é, muitas vezes, a única possibilidade de sobrevivência durante a espera do doador. No Brasil, não existe nenhum programa regular de utilização desses dispositivos como ponte para transplante. OBJETIVO: Avaliar o desempenho hemodinâmico e a resposta inflamatória durante a utilização do DAV-InCor como ponte para transplante. MÉTODOS: Entre outubro de 2003 e abril de 2006, 11 pacientes, indicados em caráter de prioridade para o transplante cardíaco, evoluíram em choque cardiogênico refratário. O implante do DAV-InCor foi realizado em sete pacientes. O diagnóstico etiológico foi cardiopatia chagásica em cinco pacientes e cardiomiopatia dilatada idiopática em dois. RESULTADOS: A assistência mecânica ao ventrículo esquerdo foi mantida nos sete pacientes por períodos entre 14 e 42 dias (média 26,2). O desempenho hemodinâmico foi adequado, com a normalização do índice cardíaco, dos níveis de saturação venosa de O2 e do lactato. O transplante foi realizado em dois pacientes, os outros cinco faleceram por infecção sistêmica ou falência de múltiplos órgãos. CONCLUSÃO: O desempenho do DAV-Incor, no comportamento hemodinâmico dos pacientes estudados, foi adequado para a manutenção de uma condição circulatória satisfatória durante o período estudado. Houve melhora dos parâmetros de perfusão tecidual e manutenção de sinais de resposta inflamatória sistêmica. Houve alta incidência de complicações; contudo, não foram demonstradas complicações relacionadas ao dispositivo que comprometam a segurança da utilização do mesmo.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Los documentos audiovisuales contienen en un mismo soporte información visual y sonido; asimismo, se caracterizan por su opacidad, es decir requieren de un dispositivo tecnológico para su grabación, transmisión y comprensión. En la actualidad, constituyen un importante acervo cultural que merece ser resguardado y puesto a disposición de la comunidad científica y del público en general como expresión de la memoria colectiva y de la cultura de nuestra sociedad. Somos conscientes de la existencia de un cúmulo significativo de material audiovisual, hoy conservado en soportes tecnológicos que han caído en desuso, lo cual implica dos grandes riesgos: por un lado, la posibilidad de pérdida o deterioro de la información contenida en ellos; por otro, la creciente dificultad para acceder a su contenido debido a la obsolescencia de los equipos necesarios para reproducirlos. En consecuencia, este proyecto se propone recuperar y resguardar en un soporte tecnológico actual y seguro: 1) el material audiovisual producido en el marco del programa televisivo Encuentros, conducido por el periodista Kuroki Murúa, emitido entre 1990 y 1998 por los Servicios de Radio y Televisión de la Universidad Nacional de Córdoba, el cual consistía en la realización de entrevistas a historiadores, sociólogos, escritores, psicoanalistas y la emisión de informes sobre manifestaciones culturales de diversa índole; 2) los discursos emitidos por los gobernadores e intendentes de Córdoba, asi como de los principales dirigentes de la oposición, difundidos por radio y televisión desde la recuperación de la democracia hasta 2001. El primer conjunto está registrado en cassettes VHS, lo cual implica un serio riesgo para la seguridad de ese material porque es sabido que el simple paso del tiempo produce un deterioro irreparable en las cintas; además requiere de un dispositivo tecnológico para su reproducción que actualmente no está disponible en el mercado. El segundo conjunto está disperso en los archivos de las distintas emisoras de radio y televisión de la ciudad de Córdoba. Estos propósitos se insertan dentro de las actividades que desde 1998 se desarrollan en el Archivo de la Palabra del Centro de Estudios Avanzados de la Universidad Nacional de Córdoba. El Archivo de la Palabra fue creado como un espacio para la creación de fuentes orales producto de investigaciones referidas a la historia política de Córdoba, como también un lugar de reunión y resguardo de las entrevistas realizadas en el marco de investigaciones que contemplaran el uso de este tipo de fuente. En esta instancia, nos proponemos ampliar los objetivos planteados inicialmente incorporando al acervo documental del Archivo, material audiovisual como el correspondiente al programa Encuentros y los discursos políticos a los que hemos hecho referencia. A los propósitos mencionados anteriormente se suman fortalecer la vinculación con redes, archivos orales, asociaciones y centros de investigación que contemplen el uso de fuentes orales e impulsar la formación de recursos humanos en el tratamiento y conservación de fuentes documentales orales y audiovisuales. La realización de este proyecto implica la prosecución de la siguiente metodología: búsqueda y localización del material audiovisual, conservación en un formato adecuado, clasificación, catalogación, puesta a disposición del público. Consideramos que este proyecto contribuirá a la recuperación, resguardo, difusión y utilización de un importante acervo documental que actualmente, debido a las condiciones de mantenimiento en las que se encuentra y a los formatos en los que está registrado corre el riesgo de perderse. Además, el material aludido constituirá un aporte fundamental para el estudio, análisis y comprensión de nuestro pasado reciente como así también para la revalorización de la memoria colectiva de nuestra sociedad. El estudio tiene como límites temporales dos años claves en la historia política argentina: 1983 y 2001.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

En dispositivos electrónicos de última generación destinados a funciones de comunicación o control automático, los algoritmos de procesamiento digital de señales trasladados al hardware han ocupado un lugar fundamental. Es decir el estado de arte en el área de las comunicaciones y control puede resumirse en algoritmos basados en procesamiento digital de señales. Las implementaciones digitales de estos algoritmos han sido estudiadas en áreas de la informática desde hace tiempo. Sin embargo, aunque el incremento en la complejidad de los algoritmos modernos permite alcanzar desempeños atractivos en aplicaciones específicas, a su vez impone restricciones en la velocidad de operación que han motivado el diseño directamente en hardware de arquitecturas para alto rendimiento. En este contexto, los circuitos electrónicos basados en lógica programable, principalmente los basados en FPGA (Field-Programmable Gate Array), permiten obtener medidas de desempeño altamente confiables que proporcionan el acercamiento necesario hacia el diseño electrónico de circuitos para aplicaciones específicas “ASIC-VLSI” (Application Specific Integrated Circuit - Very Large Scale Integration). En este proyecto se analiza el diseño y la implementación de aquitecturas electrónicas para el procesamiento digital de señales, con el objeto de obtener medidas reales sobre el comportamiento del canal inalámbrico y su influencia sobre la estimación y el control de trayectoria en vehículos aéreos no tripulados (UAV, Unmanned Aerial Vehicle). Para esto se propone analizar un dispositivo híbrido basado en microcontroladores y circuitos FPGA y sobre este mismo dispositivo implementar mediante algoritmo un control de trayectoria que permita mantener un punto fijo en el centro del cuadro de una cámara de video a bordo de un UAV, que sea eficiente en términos de velocidad de operación, dimensiones y consumo de energía.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Um homem de 56 anos veio à Clínica de Marcapasso para verificação de rotina de seu marcapasso. Ele havia apresentado um episódio de síncope na semana anterior. O paciente tinha um diagnostico prévio de cardiomiopatia hipertrófica (CMH) não-obstrutiva crônica. Devido a um episódio prévio de síncope e bloqueio infrahisiano 2:1 documentado, um marcapasso permanente de dupla câmara havia sido implantado alguns anos antes. O dispositivo foi verificado, mostrando vários episódios de altas freqüências ventriculares. Uma análise cuidadosa dos eletrogramas intracardíacos armazenados no dispositivo mostrou taquicardia ventricular (TV) com condução ventrículo-atrial 2:1. A seguinte exposição discute o diagnóstico alternativo e o manejo clínico em um diagnóstico não-usual de TV na presença de cardiomiopatia hipertrófica não-obstrutiva.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

El presente proyecto se propone como parte inicial de una investigación sobre la relación entre naturaleza/cultura/técnica. Tradicionalmente la naturaleza y la cultura se han considerado como ámbitos diferenciados y opuestos. Y es en esta distinción donde la técnica adquiere un lugar central. El pensamiento occidental sobre la técnica ha recibido diversas interpretaciones: desde una subordinación con respecto al conocimiento verdadero (episteme) en la filosofía clásica, un optimismo sobre la técnica como posibilidad de dominación de la naturaleza en el Renacimiento y la Ilustración, y la ambigüedad y desasosiego romántico (Mitcham, 1979). Durante el siglo XX se distinguen dos posiciones antagónicas sobre la técnica. Por un lado, una actitud “crítica” donde pueden identificarse los trabajos de filósofs de diferentes tradiciones como Ortega y Gasset (1939), Heidegger (1954), Mumford (1971) Ellul (1960) y la Escuela de Frankfurt. Por otro lado, una filosofía de la técnica “ingenieril” que consiste en el análisis de la tecnología como un paradigma de pensamiento y acción humana. Esta dicotomía ha sido interpretada por Eco como “apocalípticos e integrados”. Más allá de las mencionadas diferencias, lo que tienen en común ambas posiciones es que parten de una dicotomía entre cultura y naturaleza. Nuestra perspectiva rechaza esta dicotomía, por el contrario, evidenciamos una creciente imbricación entre ambas donde las fronteras entre una y otra se hacen difusas. La noción de “objeto técnico” propuesta por Simondon (2007) hace referencia a la inserción del objeto técnico en la cultura, donde debe reconocerse la “realidad humana” presente en el mismo. Ahora bien, esto no significa “humanizar el objeto técnico”, sino más bien indagar sobre el lugar que este ocupa en la cultura como también establecer su relación con la naturaleza. En el siglo XVII el hombre mismo es reinterpretado como máquina (La Mettrie, 2000). En la actualidad pueden identificarse dos tendencias en la concepción de la técnica: los «humanos-máquinas» y las «máquinas-humanas», en otras palabras, la disposición del humano hacia la máquina y la tendencia de la máquina hacia lo humano. No obstante, ambas posiciones siguen manteniendo una distinción taxonómica entre el cuerpo –o lo orgánico- y lo maquínico, lo que implica una consideración de esta relación de manera extrínseca. Frente a esta tensión Haraway propone el concepto de cyborg: «un organismo cibernético» (1995). Los desarrollos tecnológicos han producido una modificación tal en la vida de los seres orgánicos en los cuales ya no puede concebirse su cuerpo independientemente de la tecnología. Esto conduce a replantear la distinción entre “animales/hombres/máquinas”, entendiendo a los mismos como expresiones de naturaleza, cultura y tecnología respectivamente. Nuestra investigación parte de la hipótesis que la técnica diluye diferencias de orden natural y cultural a través de los objetos técnicos que son productos culturales. La estética se ocupa de la percepción sensible del mundo no puede eludir su dimensión técnica. Al margen de la crítica a la “Industria cultural” consideramos relevante la aproximación de Benjamin al problema de la técnica porque aborda la imbricación antes mencionada en el campo de la percepción. Según Benjamin la irrupción de la técnica al mismo tiempo que posibilita una estetización de la política que confluye en el fascismo como punto extremo también abre la posibilidad de desmontar la ideología del progreso infinito (1967). Una integración entre aproximaciones estéticas y políticas a la técnica Flusser (1983) propone la “caja negra” como metáfora de la técnica contemporánea. Su propuesta es la “apertura de la caja negra” que consiste en tomar conocimiento del funcionamiento del dispositivo. Nuestra propuesta de investigación aborda la técnica desde una consideración filosófica/estética/política, donde redefiniremos la técnica partiendo de la imbricación entre cultura y naturaleza. This project will set the basis for a sustained research on the relation nature/culture/technique. They have been traditionally considered as separate and even opposite fields. And it is on the brink of this distinction where technique plays a central role. In Western thought technique has received many interpretations since the beginnings of philosophy: from a subordination to true knowledge (episteme) in classic philosophy, or the optimism which sees in technique the possibility of dominating nature in the Renaissance and in the Enlightenment, to the Romantic ambiguity and uneasiness towards technological change (Mitcham, 1979). During the twentieth century two opposed approach on technique prevail. On one hand, a “critical” attitude such defines the work of philosophers of different traditions such as Ortega y Gasset (1939), Heidegger (1954), Mumford (1971) Ellul (1960) and the Frankfurt School. On the other hand there is an “engineering” philosophy of technique that consists in the analisis of technology as a paradigm to understand human action and thought. Besides their differences, both positions have in common a dichotomy between nature and culture. We reject such dichotomy. On the contrary we consider there is a growing intertwinement between both which blurs the borders of the concepts. Simondon’s notion of “technical object” refers to the insertion of the technique in culture where the “human reality” in it must be recognised. This does not imply “humanising the technical object”, but investigate on the role it plays on culture and establishing its relation to nature. To articulate this relation we will work with unorthodox approaches on technique such as Benjamin (1967), Flusser (1983) and others. The hypothesis of our project is that the traditional distinction of “animal/man/machine” must be re-thought, therefore raising the question on the blurring line between nature, culture and technique and its effects in philosophy, politics and aesthetics.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

FUNDAMENTO: Os músculos respiratórios são afetados pós operações cardíacas. OBJETIVO: Verificar se o condicionamento pré-operatório dos músculos inspiratórios poderia ajudar a diminuir a disfunção respiratória pós-operatória. MÉTODOS: Trinta voluntários de ambos os sexos com idade mínima de 50 anos, aguardando cirurgia de revascularização do miocárdio e/ou cirurgia de válvula cardíaca foram alocados de forma randômica em dois grupos. Quinze pacientes foram incluídos em um programa domiciliar de pelo menos 2 semanas de treinamento pré-operatório dos músculos inspiratórios usando um dispositivo com uma carga correspondente a 40% da pressão inspiratória máxima. Os outros 15 receberam orientações gerais e não treinaram os músculos inspiratórios. A espirometria, antes e depois do programa de treinamento, bem como a evolução dos gases sanguíneos arteriais e das pressões inspiratória e expiratória máximas, foram avaliados em ambos os grupos antes e depois da cirurgia. Os desfechos clínicos dos dois grupos também foram comparados. RESULTADOS: Observamos que o treinamento dos músculos inspiratórios aumentou a capacidade vital forçada, a ventilação voluntária máxima e a relação entre o volume expirado forçado no primeiro segundo e a capacidade vital forçada. A evolução dos gases sanguíneos e das pressões expiratória e inspiratória máximas antes e depois da cirurgia foi similar em ambos os grupos, com desfechos também similares. CONCLUSÃO: Concluímos que nosso programa domiciliar de treinamento dos músculos inspiratórios foi seguro e melhorou a capacidade vital forçada e a ventilação voluntária máxima, embora os benefícios clínicos desse programa não tenham sido claramente demonstrados no presente estudo.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

El avance en la potencia de cómputo en nuestros días viene dado por la paralelización del procesamiento, dadas las características que disponen las nuevas arquitecturas de hardware. Utilizar convenientemente este hardware impacta en la aceleración de los algoritmos en ejecución (programas). Sin embargo, convertir de forma adecuada el algoritmo en su forma paralela es complejo, y a su vez, esta forma, es específica para cada tipo de hardware paralelo. En la actualidad los procesadores de uso general más comunes son los multicore, procesadores paralelos, también denominados Symmetric Multi-Processors (SMP). Hoy en día es difícil hallar un procesador para computadoras de escritorio que no tengan algún tipo de paralelismo del caracterizado por los SMP, siendo la tendencia de desarrollo, que cada día nos encontremos con procesadores con mayor numero de cores disponibles. Por otro lado, los dispositivos de procesamiento de video (Graphics Processor Units - GPU), a su vez, han ido desarrollando su potencia de cómputo por medio de disponer de múltiples unidades de procesamiento dentro de su composición electrónica, a tal punto que en la actualidad no es difícil encontrar placas de GPU con capacidad de 200 a 400 hilos de procesamiento paralelo. Estos procesadores son muy veloces y específicos para la tarea que fueron desarrollados, principalmente el procesamiento de video. Sin embargo, como este tipo de procesadores tiene muchos puntos en común con el procesamiento científico, estos dispositivos han ido reorientándose con el nombre de General Processing Graphics Processor Unit (GPGPU). A diferencia de los procesadores SMP señalados anteriormente, las GPGPU no son de propósito general y tienen sus complicaciones para uso general debido al límite en la cantidad de memoria que cada placa puede disponer y al tipo de procesamiento paralelo que debe realizar para poder ser productiva su utilización. Los dispositivos de lógica programable, FPGA, son dispositivos capaces de realizar grandes cantidades de operaciones en paralelo, por lo que pueden ser usados para la implementación de algoritmos específicos, aprovechando el paralelismo que estas ofrecen. Su inconveniente viene derivado de la complejidad para la programación y el testing del algoritmo instanciado en el dispositivo. Ante esta diversidad de procesadores paralelos, el objetivo de nuestro trabajo está enfocado en analizar las características especificas que cada uno de estos tienen, y su impacto en la estructura de los algoritmos para que su utilización pueda obtener rendimientos de procesamiento acordes al número de recursos utilizados y combinarlos de forma tal que su complementación sea benéfica. Específicamente, partiendo desde las características del hardware, determinar las propiedades que el algoritmo paralelo debe tener para poder ser acelerado. Las características de los algoritmos paralelos determinará a su vez cuál de estos nuevos tipos de hardware son los mas adecuados para su instanciación. En particular serán tenidos en cuenta el nivel de dependencia de datos, la necesidad de realizar sincronizaciones durante el procesamiento paralelo, el tamaño de datos a procesar y la complejidad de la programación paralela en cada tipo de hardware. Today´s advances in high-performance computing are driven by parallel processing capabilities of available hardware architectures. These architectures enable the acceleration of algorithms when thes ealgorithms are properly parallelized and exploit the specific processing power of the underneath architecture. Most current processors are targeted for general pruposes and integrate several processor cores on a single chip, resulting in what is known as a Symmetric Multiprocessing (SMP) unit. Nowadays even desktop computers make use of multicore processors. Meanwhile, the industry trend is to increase the number of integrated rocessor cores as technology matures. On the other hand, Graphics Processor Units (GPU), originally designed to handle only video processing, have emerged as interesting alternatives to implement algorithm acceleration. Current available GPUs are able to implement from 200 to 400 threads for parallel processing. Scientific computing can be implemented in these hardware thanks to the programability of new GPUs that have been denoted as General Processing Graphics Processor Units (GPGPU).However, GPGPU offer little memory with respect to that available for general-prupose processors; thus, the implementation of algorithms need to be addressed carefully. Finally, Field Programmable Gate Arrays (FPGA) are programmable devices which can implement hardware logic with low latency, high parallelism and deep pipelines. Thes devices can be used to implement specific algorithms that need to run at very high speeds. However, their programmability is harder that software approaches and debugging is typically time-consuming. In this context where several alternatives for speeding up algorithms are available, our work aims at determining the main features of thes architectures and developing the required know-how to accelerate algorithm execution on them. We look at identifying those algorithms that may fit better on a given architecture as well as compleme

Relevância:

10.00% 10.00%

Publicador:

Resumo:

El trasplante renal es el tratamiento óptimo para personas que sufren estadios terminales de enfermedades renales, presentando una relación costo beneficio a favor del trasplante con respecto a la diálisis. El número de paciente que requieren ser trasplantado se incrementa año a año, pero este incremento no se ve acompañado con el aumento de los órganos disponibles. Según el SINTRA en nuestro país hay 5880 pacientes en lista de espera para recibir un trasplante renal, durante el 2011 se procuraron 1720 riñones con criterios clásicos. Es consecuencia de esta falta de órganos que se comenzó a utilizar órganos marginales, aquellos que no reúnen los criterios clásicos de donantes, el inconveniente que esto genera, es que los órganos a trasplantar presentan un mayor índice de daño celular y de rechazo. Diferentes estudios demostraron que la utilización de máquinas de perfusión en estos órganos mejora la sobrevida del órgano y disminuye el rechazo, algo que no se puede lograr con los métodos de conservación clásicos. El objetivo de este proyecto es: desarrollar y construir una máquina de perfusión renal de flujo continuo / pulsátil, con las innovaciones que consideramos pertinentes para la conservación de órganos con criterios extendidos. La máquina dispondrá de dos cámaras herméticas una dentro de la otra, la interior que contendrá al órgano el cual será conectado por medio de cánulas, a una bomba pulsátil con solución de Wisconsin o similar, estará rodeada de otra con líquido refrigerante bombeado desde una bomba refrigerante eléctrica portátil, estos sistema eléctricos serán a batería de larga duración. Nuestro prototipo aporta además nuevas innovaciones como son; un sistema (GPS) que permitirá conocer la ubicación precisa del dispositivo activado y poder coordinar de mejor manera el procedimiento quirúrgico, una computadora de a bordo con la que se controlará todos los sistemas y se almacenarán los parámetros estadísticos del órgano transportado, consolas y pantalla táctil para el control de los parámetros de funcionamiento, se construirá la carcasa con tecnología LRTM de fibra de vidrio inyectada la cual se está desarrollando en nuestra empresa para aplicaciones varias. Se desarrollarán piezas descartables de bajo costo, acorde a las disponibilidades económicas locales, para lograr de este modo la amplia utilización de esta máquina en todos los centros de trasplante y procuración de órganos del país.