955 resultados para pseudo-haletos
Resumo:
Market prices are well known to efficiently collect and aggregate diverse information regarding the value of commodities and assets. The role of markets has been particularly suitable to pricing financial securities. This article provides an alternative application of the pricing mechanism to marketing research - using pseudo-securities markets to measure preferences over new product concepts. Surveys, focus groups, concept tests and conjoint studies are methods traditionally used to measure individual and aggregate preferences. Unfortunately, these methods can be biased, costly and time-consuming to conduct. The present research is motivated by the desire to efficiently measure preferences and more accurately predict new product success, based on the efficiency and incentive-compatibility of security trading markets. The article describes a novel market research method, pro-vides insight into why the method should work, and compares the results of several trading experiments against other methodologies such as concept testing and conjoint analysis.
Resumo:
El propósito de esta revisión fue demostrar que el Síndrome Doloroso Regional Complejo, se convirtió en el recurso seudocientífico que explica una evolución no convencional de patologías relativamente anodinas, diagnosticándose sin la rigurosidad ajustada a los criterios, esencialmente clínicos, propuestos por las organizaciones internacionales que estudian este problema. Para probar esa hipótesis, los investigadores efectuamos revisión de historias clínicas de pacientes que, habiendo presentado una contingencia de origen ocupacional, de la que se derivaron distinto tipo de lesiones que denominamos diagnóstico primario, en algún momento de su evolución y sin importar la especialidad que los estuviere tratando, se les realizó un diagnóstico de SDRC con el cual fueron remitidos a Clínica del Dolor para valoración y manejo. La revisión de los expedientes se realizó a la luz de tres distintas, aunque entrañablemente relacionadas, escalas para el diagnóstico de presunción del mencionado síndrome: La propuesta por Gibbons en el año 1992, la formulada por la Asociación Internacional para el Estudio del Dolor (IASP) en 1994 y la emanada del Consenso de Budapest en el 2003, que pretende llenar las imprecisiones de la escala IASP. Los investigadores revisamos 89 expedientes de los cuales 63 cumplieron con los criterios de selección de caso; encontrando que en el 68% de estos, los criterios diagnósticos propuestos por las tres escalas, no se cumplieron y que en el 28,5%, las Clínicas del Dolor tampoco cumplieron con su rol de autoridad técnica, en la medida en que avalaron una condición no probada suficientemente.
Resumo:
El consentimiento informado es la expresión de la voluntad del paciente, relacionada con una intervención o un tratamiento terapéutico que se hará en su cuerpo, para que se dé aquel; previamente el profesional de la salud debe suministrar veraz, integral y oportunamente la información referente a los riesgos, los procedimientos, las expectativas, el diagnóstico y el pronóstico de su enfermedad y su respectivo tratamiento. Por lo tanto, del consentimiento informado se derivan obligaciones y derechos, tanto para el paciente como para el profesional de la salud, al ser un elemento tan especial y esencial en la relación médico-paciente, y en el mismo acto médico, cobra especial relevancia en la responsabilidad médica. Sin embargo, en la praxis muchas veces se olvida la importancia del consentimiento informado en relación con aquella. El propósito de este artículo consiste en analizar los elementos estructurales del consentimiento informado, los cuales son fundamentales a la hora en que el médico lo solicite. En dicho escenario surgen situaciones que generan dudas jurídicas en cuanto a su formación. De igual forma, para tener una idea concreta y completa del consentimiento informado, dividiremos este artículo en dos partes. En la primera, nos ocuparemos del desarrollo doctrinal del concepto, en el que analizaremos su noción, su evolución en la historia y sus modelos (beneficencia, paternalismo, autonomía, entre otros); posteriormente, estudiaremos la problemática que se puede originar durante el proceso de informar al paciente, debido a que no en todos los casos este está en pleno uso de sus facultades para otorgar su consentimiento. Es allí donde miraremos la capacidad en el ámbito médico y los casos en que se puede pedir un consentimiento informado directo e indirecto. Finalmente, analizaremos el tema del riesgo y el desarrollo que la doctrina ha dado al respecto, para revisar en último lugar el consentimiento en la historia clínica y su solicitud correcta al paciente. En la segunda parte, nos encargaremos de examinar detenidamente el desarrollo jurisprudencial del consentimiento informado surtido en la Corte Constitucional y en el Consejo de Estado de la República de Colombia, desde 1991 a la fecha, del cual sin duda alguna el lector podrá concluir lo esencial e imperioso de este en la práctica médica y en la prevención del daño antijurídico.
Resumo:
El presente documento es un estudio detallado del problema conocido bajo el título de Problema de Alhacén. Este problema fue formulado en el siglo X por el filósofo y matemático árabe conocido en occidente bajo el nombre de Alhacén. El documento hace una breve presentación del filósofo y una breve reseña de su trascendental tratado de óptica Kitab al-Manazir. A continuación el documento se detiene a estudiar cuidadosamente los lemas requeridos para enfrentar el problema y se presentan las soluciones para el caso de los espejos esféricos (convexos y cóncavos), cilíndricos y cónicos. También se ofrece una conjetura que habría de explicar la lógica del descubrimiento implícita en la solución que ofreció Alhacén. Tanto los lemas como las soluciones se han modelado en los software de geometría dinámica Cabri II-Plus y Cabri 3-D. El lector interesado en seguir dichas modelaciones debe contar con los programas mencionados para adelantar la lectura de los archivos. En general, estas presentaciones constan de tres partes: (i) formulación del problema (se formula en forma concisa el problema); (ii) esquema general de la construcción (se presentan los pasos esenciales que conducen a la construcción solicitada y las construcciones auxiliares que demanda el problema), esta parte se puede seguir en los archivos de Cabri; y (iii) demostración (se ofrece la justificación detallada de la construcción requerida). Los archivos en Cabri II plus cuentan con botones numerados que pueden activarse haciendo “Click” sobre ellos. La numeración corresponde a la numeración presente en el documento. El lector puede desplazar a su antojo los puntos libres que pueden reconocerse porque ellos se distinguen con la siguiente marca (º). Los puntos restantes no pueden modificarse pues son el resultado de construcciones adelantadas y ajustadas a los protocolos recomendados en el esquema general.
Resumo:
Este trabajo examina si existe evidencia de que el incremento de la oferta laboral femenina, durante las últimas tres décadas, afecta las condiciones laborales de los hombres en términos de empleo e ingresos en un país en desarrollo como Colombia.
Resumo:
El presente trabajo se centra en el procesamiento silábico, dentro del ámbito del acceso léxico, tratando de aportar evidencia empírica sobre la relevancia de la sílaba como unidad de procesamiento en castellano. Experimento 1: 18 estudiantes de Psicología. Experimento 2: 20 estudiantes de Psicología. Experimento 3: 20 estudiantes universitarios. Experimento 4: 22 estudiantes de Psicología. Se ha construído en primer lugar un diccionario de frecuencia silábica en castellano, con el fin de analizar la distribución estadística de la frecuencia silábica. A continuación se llevaron a cabo dos experimentos realizados con las dos metodologías más utilizadas en los estudios sobre acceso léxico (Naming y TDL), que arrojan alguna luz sobre cómo afecta la frecuencia de las sílabas al reconocimiento de palabras. Se trata, por tanto, de constatar dos hipótesis: por un lado la hipótesis que defiende la realidad psicológica de la sílaba, al menos en los idiomas 'superficiales', y su entidad como código de acceso al significado, y, por otro, la hipótesis de la 'redundancia ortográfica' (Seidenberg, 1987-1989) que reduce los efectos silábicos obtenidos a la mera redundancia estadística de las letras. Para ello se construyó otro diccionario de frecuencia de bigramas en el castellano y se llevaron a cabo dos experimentos con las mismas técnicas (Naming y TDL), manipulando la frecuencia silábica y controlando la frecuencia de bigramas. Parece que la frecuencia silábica posicional ejerce una influencia notable en el reconocimiento visual de palabras. Además es un efecto estable que hemos obtenido tanto con palabras como con pseudo-palabras y con las dos metodologías utilizadas. Cuanto más frecuentes son las sílabas en una posición dada de una palabra más tiempo invertimos en procesarla; es un efecto contrario al de la frecuencia léxica. Estos dos efectos son independientes, no se produjo interacción en ninguno de los cuatro experimentos. Todo parece indicar que sus respectivas influencias en el reconocimiento de palabras ocurren en niveles diferentes y que ambas variables no comparten los mismos mecanismos: son sistemas modulares, no es la redundancia de las letras la variable que explica los efectos de la sílaba. Parece que los hispano-parlantes utilizamos habitualmente una ruta no directa al acceso de significado, y que segmentamos las palabras en sílabas en un nivel de procesamiento diferente al nivel de comprensión léxica. Proponemos un modelo en el que el procesamiento de nivel fonológico o subléxico de la palabra es computacionalmente previo al nivel propiamente léxico. Con este trabajo no se agotan todos los interrogantes sobre la frecuencia silábica. Por ejemplo, es probable que no todas las sílabas de una palabra tengan el mismo peso en el procesamiento. Queda también por comprobar si se obtiene el mismo efecto de la frecuencia silábica en presentación auditiva. También sería interesante comprobar qué peso tiene la estructura de la sílaba (en cuanto a distribución de vocales y consonantes) en relación con la frecuencia.
Resumo:
Este artículo toma como punto de partida una curiosa controversia, desencadenada por un profesor de Física de la Universidad de Nueva York, llamado Alan Sokal. Dicha controversia se generó a partir de la publicción en una prestigiosa revista científica de un artículo incomprensible, aunque escrito en 'lenguaje culto'. Y que en realidad era una parodia feroz dirigida a criticar a los sobrevalorados postmodernistas franceses. La futilidad del discurso vacío en el mundo de la ciencia, o si se quiere la jerga pseudo-científica, es tomada por el autor para plantear la necesidad de una renovación o 'limpieza', en este caso, de las bases científicas de la Tecnología de la Educación. Sobre la base de considerar a la Tecnología de la Educación como una 'materia transversal' en el campo de la enseñanza, este trabajo se propone la actualización de algunas de las ciencias-soporte, en algunos casos, y la integración de nuevas fundamentaciones científicas, en otros. Lo que nos debe llevar a una actualización del papel de la Tecnología en la Educación. Así, aspectos como la necesidad de renovar los fundamentos de la Comunicación Audiovisual; considerar las aportaciones del Pensamiento de Sistemas; identificar el interés de la Psicología Constructivista, o incorporar los hallazgos metodológicos que aporta la Teoría Sociocultural para la investigación y el diseño de situaciones de enseñanza, son algunos de los elementos claves propuestos que el lector encontrará en este artículo .
Resumo:
Las neurociencias están capacitadas para, recurriendo a métodos de aprendizaje alternativos, ofrecer soluciones a determinadas dificultades de aprendizaje. Las neurociencias pueden aportar nuevos conocimientos, como por ejemplo, en el debate acerca de la correlación entre miedo y aprendizaje; las dificultades de chicos y chicas en el aprendizaje de las matemáticas o en el problema de la dislexia. También pueden contribuir a diseñar sistemas educativos que faciliten el aprendizaje y sistemas de evaluación que permitan un mayor rendimiento del cerebro. Por otro lado, existen fases sensibles en las que determinadas cosas se aprenden de forma idónea, como por ejemplo, las lenguas extranjeras, que cuanto antes se aprendan tanto mejor. En la etapa adolescente se toman un gran número de decisiones importantes en el ámbito educativo. En este momento, las capacidades cognitivas, se encuentran muy desarrolladas, no así la madurez emocional, que se produce entre los 20 y los 30 años. En las matemáticas, la comprensión del funcionamiento del cerebro puede contribuir a desarrollar estrategias de aprendizaje acordes con las capacidades neuronales. Por último, se han ido difundiendo cada vez más ideas pseudo-científicas acerca del cerebro que se podrían denominar neuromitos. Entre ellos se encuentran el que afirma que todos los procesos importantes concernientes al cerebro tienen lugar durante los tres primeros años de vida. Otro mito afirma que existen diferencias individuales entre ambos sexos.
Resumo:
Resumen tomado de la publicación
Resumo:
Permanentemente surge información sobre las terapias milagrosas para el síndrome de Down , potenciada en la actualidad por el fácil acceso a Internet. Las terapias que se suelen proponer pertenecen a tres categorías: a) la administración de sustancias naturales en dosis elevadas, o de medicamentos novedosos; b) la utilización de técnicas de estimulación extrema; c) métodos novedosos, basados en teorías esotéricas, con un lenguaje pseudo-científico capaz de convencer a personas poco especializadas. Es el caso, por ejemplo, de la técnica de la ionización. El artículo analiza críticamente los problemas de todas estas propuestas y desmonta con detalle la pseudociencia que suele adornarlas. Insiste en la necesidad de ofrecer sólidos dtos cinetíficos, cada vez que se ofrezca una terapia nueva, y alerta sobre la obligación de no abandonar las tearapias educativas, más lentas y a veces poco espectaculares, pero seguras.
Resumo:
Resumen tomado del autor. Resumen en castellano e inglés
Resumo:
Resumen basado en el de la publicaci??n
Resumo:
1. Crear un entorno multimedia integrado por: un ordenador Macintosh II. 2. Desarrollar tutoriales, modelos descriptivos y diversas experiencias en diferentes áreas. El objeto del trabajo es integrar el medio informático al panorama docente creando un sistema multimedia, es decir, un único sistema que integre medios de gestión y tratamientos de información como: la voz, la síntesis de voz, imágenes digitalizadas en un medio real, bases de datos gráficos y relacionales, sistemas de control de entorno y de adquisición de datos, digitalización de sonido, sistemas pseudo-inteligentes y lenguajes de autor. La investigación se ha realizado en dos vertientes complementarias: el desarrollo de un entorno de autor-programación de carácter multimedia que permite a profesores no introducidos en el mundo de la Informática y de los lenguajes de programación, acceder a una serie de recursos como son: el sonido, la imagen animada y estática, el vídeo y la voz. Por otra parte, la aplicación del entorno desarrollado en disciplinas curriculares (1. Didácticas de: Lengua y Literatura castellana, Francés, Plástica y Música, Ciencias Experimentales. 2. Ergonomía). La metodología empleada sigue los siguientes pasos: 1. Creación del entorno multimedia. 2. Conexionado de hardware y de los sistemas integrados. 3. Creación de interfaces. 4. Estudiar un entorno de integración de datos digitales y analógicos. 5. Verificación del sistema. 6. Desarrollo de las posibilidades de trabajo compartido y en red. 7. Desarrollo de los programas de aplicación concreta. 8. Aplicación de los trabajos en clases experimentales. 9. Elaboración de conclusiones teóricas y prácticas. 10. Creación de un laboratorio permanente, dentro de la estructura del Servicio Universitario de Pamplona, de recursos informáticos aplicados a la práctica docente. (Paralelamente se creará un BBS y un correo electrónico). Documentos: 1. Una herramienta de control de vídeo por ordenador. 2. Entorno de lectura Braille. 3. La didáctica de la Física y la Informática. 4. Enseñanza de la Algorítmica. 5. Práctica de fonética inglesa multimedia. 6. Una experiencia en la didáctica de la Química. 7. Uso didáctico de un programa matemático. 8. Documentación técnica. Redes comunicaciones. 9. Didáctica de Inglés-Francés. 1. Ofrecer una herramienta potente para gestionar diferentes tipos de información al Claustro universitario mediante la realización de unas jornadas de apoyo informático a la docencia. 2. Intercambiar y aunar experiencias dentro del ámbito universitario mediante la creación de un sistema de información sobre Educación e Informática que podría ser consultado y ampliado de forma remota mediante la conexión telefónica. 3. Ofrecer un marco de trabajo e investigación a aquellas iniciativas que en el mismo campo pudieran surgir dentro de la comunidad universitaria. 4. Potenciar el uso común de la Informática en disciplinas distanciadas. Es positivo el hecho de plantear un entorno informático multidisciplinar aplicable a muy diferentes entornos de la enseñanza.
Resumo:
Comprobar empíricamente el efecto que tiene el entrenamiento en habilidades de análisis de la palabra sobre la mejora en el aprendizaje de la lectura y escritura en niños con dificultades de aprendizaje en lecto-escritura. Participan un total de 28 sujetos, con edades comprendidas entre los 7 y los 9 años y divididos en dos grupos: muestra experimental y grupo de control. En el grupo experimental participan 14 niños con problemas de aprendizaje en la lectura y escritura (dislexia) y su selección se lleva a cabo en un doble proceso: una selección previa a partir de los datos de los Equipos Multiprofesionales y, sobre esta muestra seleccionada, se realiza una segunda selección en base a pruebas estandard de inteligencia y de nivel de lecto-escritura. La muestra de 14 niños con problemas de lecto-escritura se distribuye aleatoriamente entre los dos grupos experimentales (entrenamiento en metalenguaje y entrenamiento en análisis explícito de la palabra) y un grupo de pseudo-control (que efectúa tareas de lectura y escritura tradicionales). Se utiliza, en este caso, un diseño de tres grupos al azar con medidas antes-después, siendo la variable independiente el tipo de entrenamiento en lecto-escritura y tomando como variables dependientes: el nivel en tareas en metalenguaje y el nivel en tareas de lecto-escritura. Para comprobar que existían diferencias entre los malos y los buenos lectores (antes de comenzar los entrenamientos) se utiliza el grupo control. Además, permitió estimar si la mejora obtenida por los sujetos entrenados era suficiente como para alcanzar el nivel de los buenos lectores, comparándose los resultados de los malos lectores en el postest con los datos procedentes del grupo control. Se utilzan cinco cuestionarios, que se construyen para la realización de las pruebas, y también los tests TALE y WISC. Los cuestionarios empleados son: a) cuestionario de adiciones (30 ítems); b) cuestionario de omisiones (30 ítems); c) cuestionario de inversiones (36 ítems); d) cuestionario para medir la lectura de palabras (48 ítems); y, e) cuestionario para evaluar la escritura. Las medidas se efectúan en dos momentos, antes y después del tratamiento. Se utilizan análisis descriptivos y las pruebas de contraste de hipótesis análisis de varianza, prueba de Chi cuadrado y prueba t de Student. Para ello se emplean los paquetes estadísticos SPSS y BMDP. Se observa que el entrenamiento de los niños con dificultades en el aprendizaje de lecto-escritura produce un cambio favorable y significativo en estos niños. Después de un entrenamiento explícito en habilidades de análisis de la palabra y una instrucción particular en tareas de metalenguaje, los niños con dificultades en el aprendizaje de la lecto-escritura adquieren las capacidades y el conocimiento necesario para la manipulación y análisis de las palabras. En relación con la lectura, los resultados no reflejan un avance después de los entrenamientos. Ambos entrenamientos evaluados e implementados, debido a su naturaleza analítica, producen efectos semejantes. No obstante se considera que para realizar un tratamiento a favor de la recuperación de los niños disléxicos es más completo el entrenamiento de análisis. La tarea tradicional de lectura no permite al niño conseguir las habilidades metalingüísticas y de análisis de la palabra. Por lo que se concluye que, con el solo hecho de leer y escribir repetidamente el niño no alcanza el conocimiento de las reglas implícitas en estas tareas.
Resumo:
Resumen basado en el de la publicación