32 resultados para AMBIVALENCIA DE LA TÉCNICA
Resumo:
481 p.
Resumo:
Durante muchos años se consideró que los neonatos no experimentaban el dolor por su incapacidad para verbalizarlo. Así, concepciones erróneas hicieron que el dolor neonatal no fuese tratado. En la actualidad, existe evidencia científica que corrobora la capacidad para percibir el dolor, siendo necesario su tratamiento. Aun así, el miedo a los posibles efectos secundarios de los fármacos ha obstaculizado el estudio de nuevos fármacos para el tratamiento del dolor. Es por eso que las estrategias no farmacológicas han tomado gran relevancia en el tratamiento de procedimientos dolorosos menores, y como coadyuvantes de los fármacos en procedimientos de mayor intensidad. El método canguro que se define como un contacto piel a piel entre madre e hijo, surgió como una alternativa ante la escasez de incubadoras. Sin embargo, numerosas investigaciones han demostrado los grandes beneficios que aporta, considerándolo también como una medida no farmacológica eficaz en el alivio del dolor neonatal. El objetivo de este estudio es evaluar la efectividad del método canguro junto a la administración de sacarosa oral en la disminución del dolor, en comparación con el procedimiento estándar al realizar la prueba de talón. Para ello, se realizará un ensayo clínico aleatorizado dirigido a los neonatos prematuros y de bajo peso gestacional ingresados en la unidad de neonatal del Hospital universitario de Cruces. La variable principal a estudio es la valoración del dolor medido mediante la escala PIPP. Se compararán los datos recogidos en el grupo control e intervención y el análisis de datos se realizará usando el programa informático SPSS.
Resumo:
23 p.
Resumo:
[ES]Al escuchar la palabra interrogatorio, lo que normalmente sucede es que las personas asocien dicho término con el interrogatorio realizado por parte de la policía, debido a la gran cantidad de películas basadas en este tipo de interrogatorio. Lo que se ha pretendido a través de este trabajo es el estudio y análisis de las características y funciones que generalmente invaden el interrogatorio judicial, así como el examen de las distintas técnicas posibles a llevar a cabo para la consecución de su fin: la verdad sobre los hechos probados. Además, se ha querido subrayar la importancia e influencia que tiene la ciencia de la psicología en este campo, estableciendo y exponiendo diferentes claves psicológicas para realizar de una mejor manera el trabajo del abogado en el acto del interrogatorio judicial, ya que, aun siendo imprescindible el conocimiento de la ciencia del Derecho, ha de tenerse muy en cuenta y de hecho, no olvidarse de la ciencia de la Psicología.
Resumo:
Empleo de la técnica BiFC para estudiar la interacción entre los canales Kv7.2 y la CaM. Para ello se realizan clonajes, se co-transfectan distintas combinaciones de éstos en células de mamífero y se analiza y cuantifica la intensidad de fluorescencia obtenida mediante microscopía confocal.
Resumo:
En este trabajo se realiza un estudio preliminar con el objetivo de observar las interacciones entre la calmodulina y los canales Kv7.2 utilizando para ello la técnica FRET (Förster resonance energy transfer).
Resumo:
Los supuestos fundamentales de la Teoría de la Computabilidad se establecieron antes de la aparición de los primeros ordenadores (a finales de los años 40), supuestos que muchos años de vertiginoso cambio no han conseguido alterar. Alan Mathison Turing demostró ya entonces que ningún ordenador, por muy potente que lo imaginemos, podría resolver algunas cuestiones. Estos problemas para los que no existe ningún algoritmo posible, los incomputables, no son excepcionales y hay un gran número de ellos entre los problemas que se plantean en torno al comportamiento de los programas. El problema de parada, es sin duda el miembro más conocido de esta familia: no existe un algoritmo para decidir con carácter general si un programa ciclará o no al recibir unos datos de entrada concretos. Para demostrar la incomputabilidad de un problema necesitamos un argumento lógico que certifique la inexistencia de algoritmo, o lo que es lo mismo, que pruebe que ninguno de los algoritmos existentes es capaz de resolver dicho problema. Tal argumento de carácter universal no suele ser sencillo de establecer, y normalmente suele estar relacionado con una demostración por reducción al absurdo. Existen distintas técnicas para lograr este objetivo. La técnica de diagonalización es la más básica de ellas, y resulta bastante conocida al no tratarse de una herramienta específica de la Informática Teórica. En este documento no se trata de explicar la técnica en sí, que se supone conocida, sino de ilustrarla con una colección de ejemplos de diferente grado de dificultad.
Resumo:
[ES] A fin de garantizar el aprovechamiento deun recurso renovable como la madera, en un momento de retroceso forestal y escasez de materiales, los habitantes de la provincia de Guipúzcoa, ante lo exiguo de su territorio, arbitraron un sistema que permitió combinar las necesidades y demandas de actividades tan dispares como la ganadería, el consumo doméstico, la siderurgia o la construcción naval. El presente artículo pretende analizar el origen, desarrollo y desaparición de los trasmochos guiados y describir su técnica en el territorio guipuzcoano. A falta de mayores evidencias, parece que la técnica del trasmochado o desmochado guiado inició su andadura en la Baja Edad Media, aunque hasta las primeras décadas del siglo XVI no existen datos documentales de su utilización en territorio guipuzcoano. Su generalización en todo el territorio guipuzcoano no parece producirse definitivamente hasta finales del siglo XVII, aunque para entonces se venía aplicando en la costa y el sector oriental de la reclamaciones de las autoridades reales y territoriales, la obligación de dejar horca y pendón se encontró con la oposición de carboneros y ferrones, quienes trasmochaban los árboles pero sin guiarlos, perjudicando de ese modo a las autoridades e intereses de la Marina Real. Precisamente el incumplimiento de las ordenanzas fue lo que provocó la aparición de dos modelos, con usos diferenciados: trasmochos sin guiar y trasmochos guiados. A lo largo del siglo XIX dicha técnica se fue perdiendo, coincidiendo con la paulatina desaparición de la construcción naval en madera.
Resumo:
XXII,1021 p.
Resumo:
[ES] El proceso de Bolonia ha remarcado una perspectiva institucional en la preocupación por la gestión de la calidad del servicio prestado en las universidades y otras instituciones de enseñanza superior. La calidad del servicio en la educación superior no se centra exclusivamente en el proceso de enseñanza- aprendizaje y en la relación entre docente y discente, sino que debe estar también garantizada en el servicio prestado por las bibliotecas universitarias, los servicios de acción social, los servicios académicos y las secretarías departamentales.
Resumo:
Duración (en horas): De 21 a 30 horas. Destinatario: Estudiante y Docente
Resumo:
[Es]Actualmente ninguna área científica es ajena a la revolución de la nanociencia; las nanopartículas atraen el interés de muchos investigadores desde el punto de vista de la ciencia fundamental y para sus aplicaciones tecnológicas. Las nanopartículas ofrecen la posibilidad de fabricar sensores que sean capaces de detectar desde un virus hasta concentraciones de substancias patógenas que no pueden ser detectadas por los métodos convencionales. Hoy en día existes 82 tratamientos contra el cáncer basadas en la utilización de nanopartículas y los materiales composite con nanopartículas se utilizan como medio de protección frente la radiación del rango de microondas. En la rama de ciencias ambientales, las nanopartículas metálicas sirven como materiales anticontaminantes. En este trabajo se ha estudiado la estructura y las propiedades magnéticas de las nanopartículas de FeNi preparadas mediante el método de explosión eléctrica de hilo. Con la técnica de Rayos–X(DRX) se ha determinado que las nanopartículas se cristalizan en un sistema cúbico FCC con un parámetro de celda de 3.596 Å, también, se ha obtenido el tamaño de dominio coherente que es de 35 nm. La muestra se ha sometido a un programa de temperatura controlada para seguir la evolución de la estructura cristalina y del tamaño del cristal, tanto en atmósfera oxidante como en vacío. Para el aprendizaje de los microscopios utilizados en este trabajo, se ha asistido al curso “Fundamentos de microscopia electrónica de barrido y microanálisis” impartido por SGIker de la UPV/EHU. Se han empleado los microscopios electrónicos SEM y TEM para obtener imágenes de gran resolución de la muestra y analizar su contenido elemental. Partiendo de las imágenes sacadas por el SEM se ha calculado el valor medio del tamaño de las partículas de la muestra, 58 nm. Mediante el Mastersizer 2000 se ha medido el tamaño de las partículas y/o agregados por método de difracción láser, disgregando la muestra todo lo posible hasta conseguir el tamaño medio que se aproxime al de una sola partícula, 100nm. Por último, para la caracterización magnética se ha servido del VSM que mide el momento magnético de una muestra cuando ésta vibra en presencia de un campo magnético estático, consiguiendo una imanación de saturación de 125 emu/g. Hemos fabricado y caracterizado las nanopartículas magnéticas de hierro-níquel y los resultados obtenidos han sido enviados a un congreso especializado de ciencia de materiales (ISMANAM - 2013, Italia).
Resumo:
Cuando la inversión publicitaria es importante, resulta necesario medir a priori la eficacia de la campaña mediante la técnica pretest que se estime más oportuna. El objetivo de las técnicas pretests es conocer a priori el comportamiento futuro de las personas que serán impactadas por la campaña. Gracias a los pretests publicitarios podemos corregir errores antes de emitir los anuncios a través de los medios de comunicación y tener una mayor seguridad de que la campaña publicitaria va a ser eficaz.
Resumo:
En esta tesis de máster se presenta una metodología para el análisis automatizado de las señales del sonar de largo alcance y una aplicación basada en la técnica de reconocimiento óptico de Optical Character Recognition, caracteres (OCR). La primera contribución consiste en el análisis de imágenes de sonar mediante técnicas de procesamiento de imágenes. En este proceso, para cada imagen de sonar se extraen y se analizan las regiones medibles, obteniendo para cada región un conjunto de características. Con la ayuda de los expertos, cada región es identi cada en una clase (atún o no-atún). De este modo, mediante el aprendizaje supervisado se genera la base de datos y, a su vez, se obtiene un modelo de clasi cación. La segunda contribución es una aplicación OCR que reconoce y extrae de las capturas de pantalla de imágenes de sonar, los caracteres alfanuméricos correspondientes a los parámetros de situación (velocidad, rumbo, localización GPS) y la confi guración de sonar (ganancias, inclinación, ancho del haz). El objetivo de este proceso es el de maximizar la e ficiencia en la detección de atún en el Golfo de Vizcaya y dar el primer paso hacia el desarrollo de un índice de abundancia de esta especie, el cual esté basado en el procesamiento automático de las imágenes de sonar grabadas a bordo de la ota pesquera durante su actividad pesquera rutinaria.
Resumo:
En este estudio se han optimizado para su análisis mediante la técnica HRM los cebadores responsables de la amplificación de dos SNPs (rs199456 y rs199457), con los cuales es posible identificar los haplotipos H1 y H2 y los subhaplotipos H2' y H2D de la región 17q21.31 del cromosoma 17. Los genes que se encuentran en esta región, especialmente MAPT, están implicados en enfermedades neurodegenerativas como el Alzehimer, ciertas variantes de retraso mental y dificultades para el aprendizaje. El haplotipo H2 muestra una distribución muy característica, puesto que sólo aparece en poblaciones del continente europeo, especialmente en el sudoeste. Una vez optimizados los cebadores, se han utilizado para identificar los haplotipos de una serie de muestras de ADN de población del norte de Navarra. Con los datos disponibles en la bibliografía, se ha analizado la distribución en Europa de los diferentes haplotipos, encontrándose para H2 una clina latitudinal.