792 resultados para computer-based technology
Resumo:
Durch die von Rapid Prototyping gebotenen Möglichkeiten können computergestützte 3D Operationsplanungen präzise in der Operation umgesetzt werden. An der Universitätsklinik Balgrist wurden in den letzten 3 Jahren nahezu 100 Patienten erfolgreich behandelt, deren Operation in 3D geplant und mit patienten-spezifischen Schablonen umgesetzt wurde. Wir beschreiben die Genauigkeit dieser Methode und berichten über die hierbei gesammelten Erfahrungen. Aufgrund der Flexibilität der Rapid Prototyping Technologie, gibt es nicht immer nur einen Weg wie eine 3D geplante Operation umgesetzt werden kann. Wir zeigen daher anhand von Fallbeispielen unterschiedliche Strategien auf und beschreiben deren Vor- und Nachteile. Ausserdem präsentieren wir die Weiterentwicklung der Methode zur Anwendung an kleinerer Anatomie wie Knochen des Handgelenkes oder der Finger.
Resumo:
Individuals with intellectual disabilities (ID) often struggle with learning how to read. Reading difficulties seem to be the most common secondary condition of ID. Only one in five children with mild or moderate ID achieves even minimal literacy skills. However, literacy education for children and adolescents with ID has been largely overlooked by researchers and educators. While there is little research on reading of children with ID, many training studies have been conducted with other populations with reading difficulties. The most common approach of acquiring literacy skills consists of sophisticated programs that train phonological skills and auditory perception. Only few studies investigated the influence of implicit learning on literacy skills. Implicit learning processes seem to be largely independent of age and IQ. Children are sensitive to the statistics of their learning environment. By frequent word reading they acquire implicit knowledge about the frequency of single letters and letter patterns in written words. Additionally, semantic connections not only improve the word understanding, but also facilitate storage of words in memory. Advances in communication technology have introduced new possibilities for remediating literacy skills. Computers can provide training material in attractive ways, for example through animations and immediate feedback .These opportunities can scaffold and support attention processes central to learning. Thus, the aim of this intervention study was to develop and implement a computer based word-picture training, which is based on statistical and semantic learning, and to examine the training effects on reading, spelling and attention in children and adolescents (9-16 years) diagnosed with mental retardation (general IQ 74). Fifty children participated in four to five weekly training sessions of 15-20 minutes over 4 weeks, and completed assessments of attention, reading, spelling, short-term memory and fluid intelligence before and after training. After a first assessment (T1), the entire sample was divided in a training group (group A) and a waiting control group (group B). After 4 weeks of training with group A, a second assessment (T2) was administered with both training groups. Afterwards, group B was trained for 4 weeks, before a last assessment (T3) was carried out in both groups. Overall, the results showed that the word-picture training led to substantial gains on word decoding and attention for both training groups. These effects were preserved six weeks later (group A). There was also a clear tendency of improvement in spelling after training for both groups, although the effect did not reach significance. These findings highlight the fact that an implicit statistical learning training in a playful way by motivating computer programs can not only promote reading development, but also attention in children with intellectual disabilities.
Resumo:
Introduction Language is the most important mean of communication and plays a central role in our everyday life. Brain damage (e.g. stroke) can lead to acquired disorders of lan- guage affecting the four linguistic modalities (i.e. reading, writing, speech production and comprehension) in different combinations and levels of severity. Every year, more than 5000 people (Aphasie Suisse) are affected by aphasia in Switzerland alone. Since aphasia is highly individual, the level of difficulty and the content of tasks have to be adapted continuously by the speech therapists. Computer-based assignments allow patients to train independently at home and thus increasing the frequency of ther- apy. Recent developments in tablet computers have opened new opportunities to use these devices for rehabilitation purposes. Especially older people, who have no prior experience with computers, can benefit from the new technologies. Methods The aim of this project was to develop an application that enables patients to train language related tasks autonomously and, on the other hand, allows speech therapists to assign exercises to the patients and to track their results online. Seven categories with various types of assignments were implemented. The application has two parts which are separated by a user management system into a patient interface and a therapist interface. Both interfaces were evaluated using the SUS (Subject Usability Scale). The patient interface was tested by 15 healthy controls and 5 patients. For the patients, we also collected tracking data for further analysis. The therapist interface was evaluated by 5 speech therapists. Results The SUS score are xpatients = 98 and xhealthy = 92.7 (median = 95, SD = 7, 95% CI [88.8, 96.6]) in case of the patient interface and xtherapists = 68 in case of the therapist interface. Conclusion Both, the patients and the healthy subjects, attested high SUS scores to the patient interface. These scores are considered as "best imaginable". The therapist interface got a lower SUS score compared to the patient interface, but is still considered as "good" and "usable". The user tracking system and the interviews revealed that there is room for improvements and inspired new ideas for future versions.
Resumo:
Epilepsy is a very complex disease which can have a variety of etiologies, co-morbidities, and a long list of psychosocial factors4. Clinical management of epilepsy patients typically includes serological tests, EEG's, and imaging studies to determine the single best antiepileptic drug (AED). Self-management is a vital component of achieving optimal health when living with a chronic disease. For patients with epilepsy self-management includes any necessary actions to control seizures and cope with any subsequent effects of the condition9; including aspects of treatment, seizure, and lifestyle. The use of computer-based applications can allow for more effective use of clinic visits and ultimately enhance the patient-provider relationship through focused discussion of determinants affecting self-management. ^ The purpose of this study is to conduct a systematic literature review on informatics application in epilepsy self-management in an effort to describe current evidence for informatics applications and decision support as an adjunct to successful clinical management of epilepsy. Each publication was analyzed for the type of study design utilized. ^ A total of 68 publications were included and categorized by the study design used, development stage, and clinical domain. Descriptive study designs comprised of three-fourths of the publications and indicate an underwhelming use of prospective studies. The vast majority of prospective studies also focused on clinician use to increase knowledge in treating patients with epilepsy. ^ Due to the chronic nature of epilepsy and the difficulty that both clinicians and patients can experience in managing epilepsy, more prospective studies are needed to evaluate applications that can effectively increase management activities. Within the last two decades of epilepsy research, management studies have employed the use of biomedical informatics applications. While the use of computer applications to manage epilepsy has increased, more progress is needed.^
Resumo:
La intensa relación de las infotecnologías con el ámbito educativo no es algo nuevo. Ha ido pasando por diferentes etapas marcadas por uno u otro modelo para el proceso de enseñanza-aprendizaje: tele-enseñanza o educación a distancia, Computer-Based Learning (CBL), E-Learning, Blended Learning o B-Learning son algunos de ellos. En cada caso se han incorporando diferentes tecnologías, desde las cintas magnéticas de audio y vídeo hasta los portátiles, las tabletas y las pizarras electrónicas, pasando por la vídeoconferencia o la mensajería instantánea. Hoy hablamos de E-Learning 2.0 (Downes, 2005) y Technology-Enhanced Learning (TEL). Todos esos modelos y sus metáforas asociadas han ido integrando, además de las diferentes capacidades tecnologías disponibles, distintas teorías pedagógicas, empezando por las tradicionalmente conocidas en la literatura del ámbito de la psicología educativa: el conductismo, el constructivismo o el constructivismo social. En la tabla 1 puede encontrar el lector esa asociación sintética, conjeturando con la definición de los roles de enseñante y aprendiz en cada modelo. Los cambios de “paradigma” –que habitualmente obvian la naturaleza original de este término para generalizarlo de forma poco rigurosa- anunciados y demandados en el ámbito educativo durante décadas se articulaban en (Barr y Tagg, 1995) alrededor de elementos como la misión y los objetivos de las instituciones educativas, la estructuración de los procesos educativos, su coste y productividad, los roles de los diferentes actores involucrados, la definición teórica del proceso de enseñanza-aprendizaje o las métricas de tal proceso. Downes (2005) lo resume de forma muy sintética con la siguiente afirmación (la traducción es mía): “el modelo de E-Learning que lo define en términos de unos contenidos, producidos por los editores, organizados y estructurados en cursos y consumidos por los estudiantes, se está dando la vuelta. En lo que se refiere al contenido, es mucho más probable que sea usado antes que “leído” y, en cualquier caso, es mucho más probable que sea producido por los propios estudiantes que por los autores especializados en la producción de cursos. En lo que se refiere a la estructura, es más probable que se parezca más a un idioma o una conversación que a un manual o libro de texto”. La irrupción en la escena tecnológica de la Web 2.0 como fenómeno social, sociotécnico en los términos de (Fumero, Roca y Sáez Vacas, 2007), ha hecho que se recuperen antiguas ambiciones teóricas asociadas a algunas de aquellas teorías clásicas, especialmente las que tienen que ver con el constructivismo cognitivo de J. Piaget (1964) y el constructivismo social de L. Vygotsky (1978). Esas teorías, enriquecidas con apuestas más atrevidas como el “conectivismo” (Siemens, 2004), han dado lugar al relanzamiento de modelos pedagógicos como el aprendizaje auto-gestionado o auto-dirigido, con sus matices de formulación (Self-Managed vs. Self-Directed Learning) que se han ido complementando a lo largo del tiempo con modelos de intervención asistidos, basados en un proceso de “andamiaje” o ‘scaffolding’ (véase en el capítulo 3, bajo el epígrafe “Psicología educativa para ingenieros”). Hoy podemos ver cómo, mientras se empieza a consolidar la reorganización del escenario institucional de la Educación Superior en Europa, tras el agotamiento de todos los plazos y las prórrogas contempladas por el acuerdo de Bolonia para su implementación –véase, por ejemplo, (Ortega, 2005) y su reflexión acerca de los “ingenieros creativos” en relación con esta reforma- se ha vuelto a plantear la implantación de procesos educativos basados en el aprendizaje informal (frente al formal y dando lugar a la definición del aprendizaje “no formal”), procesos que realmente se implementan como experiencias de aprendizaje mutuo (peer learning), en comunidad y ayudados por unas infotecnologías que, a pesar de su característica “cotidianeidad” (véase en el Prontuario el epígrafe “Tecnologías para la VIda Cotidiana”) siguen arrastrando el atributo de “educativas”. Evidentemente, la “tecnificación” de las instituciones de enseñanza superior ha ido consolidando algunos elementos tecnológicos que hoy son estándares de facto, como por ejemplo los sistemas integrados de gestión conocidos por sus siglas anglosajonas, LMS (Learning Management Systems). Los enormes esfuerzos, organizativos y técnicos, de integración que se han ido desarrollando en ese sentido –véase por ejemplo en (Aguirre, 2012)- han permanecido un tanto insensibles al desarrollo paralelo que, animados por la proliferación de herramientas más ricas y accesibles, llevaban a cabo los usuarios (profesores y alumnos; enseñantes y aprendices) que, manteniendo algún tipo de relación con una de esas instituciones (véase el escenario a que dan lugar en la figura 4) hacían un uso creativo de las tecnologías que la Red ponía a su alcance. En el escenario actual –aun predominando la excitación tecnológica- han acabado encontrándose ambas corrientes, generando un nuevo espacio de incertidumbre (léase de oportunidades) en el que se encuentran las soluciones establecidas, en forma de LMS, con las primeras formulaciones de esas combinaciones creativas de herramientas, metodologías y modelos, también conocidos como entornos personales de aprendizaje (Personal Learning Environments, PLE), que han revitalizado otras propuestas tecnológicas, como los e-Portfolios, o pedagógicas, como los contratos de aprendizaje (véase su aplicación en el caso de estudio del proyecto iCamp, en el capítulo 4). Es en ese escenario y desde una perspectiva interdisciplinar, híbrida, mestiza y conciliadora, donde tiene sentido plantear, como objeto de un trabajo de investigación consistente, la consolidación de un modelo que nos ayude a contextualizar la situación de cambio infotecnológico, organizativo y social a la que nos enfrentamos y que nos guíe en su instrumentalización para afrontar “situaciones de complejidad” similares que, sin duda, tendremos que abordar en el medio plazo. Esto me lleva a contemplar el problema desde una perspectiva suficientemente amplia, pero con un foco bien definido sobre los procesos educativos –de enseñanza y aprendizaje- en el ámbito de la Educación Superior y, específicamente, en lo referente a la formación de los infoprofesionales. Un escenario en el que se dan cita necesariamente la Tecnología Educativa y la Web 2.0 como fenómeno sociotécnico y que me llevan al análisis de modelos de intervención basados en lo que se conoce como “software social” –en sentido amplio, considerando herramientas, tecnologías y metodologías-, ensayados en ese ámbito extendido a la capacitación y la formación profesionales. Se establece, por tanto, como escenario del trabajo de investigación –y ámbito para el diseño de aquellas intervenciones- el de las organizaciones educativas, aplicando la definición sintética que recoge el propio Fernando Sáez Vacas (FSV) de la reingeniería de procesos (la negrita y las anotaciones, entre paréntesis, son mías), “que consiste en reinventar la forma de desarrollar las operaciones de la empresa (institución educativa, universitaria por ejemplo), partiendo de nuevos enfoques muy orientados a las necesidades de los clientes (los aprendices o estudiantes), con rotura de las tradicionales formas organizativas verticales y del desempeño humano y un uso masivo de las modernas tecnologías de la información y de la comunicación”; y que se aplicarán de acuerdo con la integración de los elementos metodológicos y conceptuales, que conformarán las bases de una SocioTecnología de la Información y Cultura (STIC) y que hunden sus raíces en la complejidad y la sistémica (véase en el Prontuario). El objetivo genérico que se planteaba en la propuesta original de tesis doctoral era ambicioso: “desarrollar y potenciar las bases de un ‘movimiento’ de I+D+i (+d) –con “d” minúscula de difusión, divulgación, diseminación-, sobre socioinfotecnocultura enfocado en el contexto de este trabajo específicamente en su difusión educativa y principalmente en el ámbito de la Educación Superior” y para la formación de los infoprofesionales. El objetivo específico del mismo era el de “diseñar un (conjunto) instrumental cognitivo básico, aunque relativamente complejo y denso en su formulación, para los infoprofesionales, considerados como agentes activos de la infotecnología con visión y aplicación social”. La tesis de partida es que existe –en palabras de FSV- la necesidad “de desarrollar educativamente los conocimientos y modelos socioinfotecnoculturales para nutrir una actitud en principio favorable a los progresos infotecnológicos, pero encauzada por una mentalidad “abierta, positiva, crítica, activa y responsable” y orientar con la mayor profundidad posible a los infoprofesionales y, en un grado razonable, a los infociudadanos hacia usos positivos desde puntos de vista humanos y sociales”. Justificar, documentar y caracterizar esa necesidad latente –y en muchos aspectos patente en el actual escenario educativo- será parte importante del trabajo; así como elaborar los elementos necesarios que ofrezcan coherencia y consistencia suficientes al marco conceptual de esa nueva “socioinfotecnocultura” que en la formulación adoptada aquí será el marco tecnocultural básico de una SocioTecnología de la Información y Cultura (STIC), debiendo integrar esos elementos en el proceso educativo de enseñanza-aprendizaje de tal manera que puedan ser objeto de diseño y experimentación, particularizándolo sobre los infoprofesionales en primera instancia, aunque dentro de un proyecto amplio para el desarrollo y promoción social de una STIC. Mi planteamiento aquí, si bien incorpora elementos y modelos considerados previamente en algunos de mis trabajos de análisis, investigación, experimentación y diseminación realizados a lo largo del periodo de formación –modelos de intervención desarrollados en el proyecto iCamp, ampliamente documentados en (Fiedler, 2006) o (Fiedler y Kieslinger, 2007) y comentados en el capítulo 4-, en gran parte, por simple coherencia, estará constituido por elementos propios y/o adaptados de FSV que constituirán el marco tecnocultural de una teoría general de la STIC, que está en la base de este planteamiento. La asimilación en términos educativos de ese marco tecnocultural supondrá un esfuerzo considerable de reingeniería y se apoyará en el circuito cognitivo individual ampliado de “información-esfuerzo-conocimiento-esfuerzo-acción” que se recoge en el Prontuario (figura 34) y que parte de (Sáez Vacas, 1991a). La mejor forma de visualizar la formulación de ese proceso educativo es ponerlo en los términos del modelo OITP (Organización, Individuos, Tecnologías y Procesos) tal y como se ilustra en el Prontuario (figura 25) y que se puede encontrar descrito brevemente por su autor en (Sáez Vacas, 1995), de la misma forma que se planteaba la experiencia INTL 2.0 en (Sáez Vacas, Fumero et al., 2007) y que es objeto de análisis en el capítulo 5. En este caso, el plano que atraviesa el Proceso (educativo) será el marco tecnocultural de nuestra STIC; la Organización será, en genérico, el ámbito institucional de la Educación Superior y, en concreto, el dedicado a la formación de los infoprofesionales –entendidos en el sentido amplio que se planteaba en (Sáez Vacas, 1983b)-, que serán los Individuos, la componente (I) del modelo OITP. Este trabajo de tesis doctoral es uno de los resultados del proyecto de investigación propuesto y comprometido con esos objetivos, que se presenta aquí como un “proyecto tecnocultural” más amplio (véase el epígrafe homónimo en el capítulo 1). Un resultado singular, por lo que representa en el proceso de formación y acreditación del investigador que lo suscribe. En este sentido, este trabajo constituye, por un lado, la base de un elemento divulgativo que se sumará a los esfuerzos de I+D+i+d (véase textículo 3), recogidos en parte como resultados de la investigación; mientras que, por el otro lado, incorpora elementos metodológicos teóricos originales que contribuyen al objetivo genérico planteado en la propuesta de tesis, además de constituir una parte importante de los procesos de instrumentalización, recogidos en parte en los objetivos específicos de la propuesta, que en este entregable formarán parte de líneas futuras de trabajo, que se presentan en el capítulo 6 de conclusiones y discusión de resultados. Dentro de esos elementos metodológicos, teóricos, resulta especialmente relevante –en términos de los objetivos planteados originalmente-, la simplificación instrumental de las aportaciones teóricas previas, que han sido fruto del esfuerzo de análisis sistemático e implementación de diferentes intervenciones en el ámbito educativo, que se centran específicamente en el proyecto iCamp (véase en el capítulo 4) y la experiencia INTL 2.0 (véase en el capítulo 5, junto a otras experiencias instrumentales en la UPM). Esa simplificación, como elaboración teórica y proceso de modelización, se realiza extrayendo elementos de la validación teórica y experimental, que de alguna forma proporcionan los casos de estudio (capítulos 4 y 5), para incorporarlos como argumentos en la consolidación de un enfoque tecnocultural que está en la base de la construcción de una SocioTecnología de la Información y Cultura (STIC) consistente, basada en el sistemismo aplicado en diferentes situaciones de complejidad y que requerirán de una inter/multidisciplinariedad que vaya más allá de la simple “yuxtaposición” de especialidades que conocemos en nuestra actual Universidad (me refiero, con mayúscula, a la institución universitaria en toda su extensión). Esa será la base para el diseño y la construcción de experiencias educativas, basadas en el generalismo sistémico, para infoprofesionales (véase en el capítulo 1) en particular e infociudadanos en general, que nos permitirán “cimentar, con suficientes garantías, un cierto nivel de humanismo en el proceso de construcción de una sociedad de la información y del conocimiento”. En el caso de iCamp pudimos experimentar, desde un enfoque (véase en el capítulo 4) basado en diseño (Design-based Research, DbR), con tres elementos que se pueden trasladar fácilmente al concepto de competencias –o incluso en su implementación funcional, como habilidades o capacidades instrumentales percibidas, léase ‘affordances’- y que introducen tres niveles de complejidad asociados (véase, en el Prontuario, el modelo de tres niveles de complejidad), a saber el aprendizaje auto-dirigido (complejidad individual), la colaboración (complejidad sistémica) y la construcción de una red de aprendizaje (complejidad sociotécnica). Esa experimentación nos llevó a evolucionar el propio concepto de entorno personal de aprendizaje (PLE, Personal Learning Environment), partiendo de su concepción originalmente tecnológica e instrumental, para llegar a una concepción más amplia y versátil desde el punto de vista de la intervención, basada en una visión “ecológica” de los sistemas abiertos de aprendizaje (véase en el capítulo 3). En el caso de las experiencias en la UPM (capítulo 5), el caso singular de INTL 2.0 nos muestra cómo el diseño basado en la sistémica aplicada a problemas (léase situaciones de complejidad específicas) no estructurados, como los procesos de enseñanza-aprendizaje, dan lugar a intervenciones coherentes con esa visión ecológica basada en la teoría de la actividad y con los elementos comunes de la psicología educativa moderna, que parte del constructivismo social de L. Vygotsky (1978). La contraposición de ese caso con otras realizaciones, centradas en la configuración instrumental de experiencias basadas en la “instrucción” o educación formal, debe llevarnos al rediseño –o al menos a la reformulación- de ciertos componentes ya consolidados en ese tipo de formación “institucionalizada” (véase en el capítulo 5), como pueden ser el propio curso, unidad académica de programación incuestionable, los procedimientos de acreditación, certificación y evaluación, ligados a esa planificación temporal de “entrega” de contenidos y la conceptualización misma del “aula” virtual como espacio para el intercambio en la Red y fuera de ella. Todas esas observaciones (empíricas) y argumentaciones (teóricas) que derivan de la situación de complejidad específica que aquí nos ocupa sirven, a la postre –tal y como requiere el objetivo declarado de este trabajo de investigación- para ir “sedimentando” unas bases sólidas de una teoría general de la SocioTecnología de la Información y Cultura (STIC) que formen parte de un marco tecnocultural más amplio que, a su vez, servirá de guía para su aplicación en otras situaciones de complejidad, en ámbitos distintos. En este sentido, aceptando como parte de ese marco tecnocultural las características de convivencialidad y cotidianeidad (véase, en el Prontuario el epígrafe “Tecnologías para la VIda Cotidiana, TVIC”) de una “infotecnología-uso” (modelo de las cinco subculturas infotecnológicas, también recogido en el Prontuario), consideraremos como aportaciones relevantes (véase capítulo 2): 1) la argumentación sociotécnica del proceso de popularización de la retórica informática del cambio de versión, de la que deriva el fenómeno de la Web 2.0; 2) el papel estelar del móvil inteligente y su capacidad para transformar las capacidades percibidas para la acción dentro del Nuevo Entorno Tecnosocial (NET), especialmente en la situación de complejidad que nos ocupa, que ya desarrollaran Rodríguez Sánchez, Sáez Vacas y García Hervás (2010) dentro del mismo marco teórico que caracterizamos aquí como enfoque STIC; 3) y la existencia de una cierta “inteligencia tecnosocial”, que ya conjeturara FSV en (Sáez Vacas, 2011d) y que cobra cada vez más relevancia por cuanto que resulta coherente con otros modelos consolidados, como el de las inteligencias múltiples de Gardner (2000), así como con las observaciones realizadas por otros autores en relación con la aparición de nuevos alfabetismos que conformarían “una nueva generación de inteligencia” (Fumero y Espiritusanto, 2011). En rigor, el método científico –entiéndase este trabajo como parte de un proceso de investigación tecnocientífica- implica el desarrollo de una componente dialéctica asociada a la presentación de resultados; aunque, evidentemente, la misma se apoya en una actitud crítica para la discusión de los resultados aportados, que debe partir, necesariamente, como condición sine qua non de un profundo escepticismo debidamente informado. Es ese el espíritu con el que se ha afrontado la redacción de este documento, que incluye, en el capítulo 6, una serie de argumentos específicamente destinados a plantear esa discusión de resultados a partir de estas aportaciones que he vertido sintéticamente en este resumen, que no persigue otra cosa que motivar al lector para adentrarse en la lectura de este texto al completo, tarea que requiere de un esfuerzo personal dirigido (véase el epígrafe “Cómo leer este texto” en el índice) que contará con elementos de apoyo, tanto hipertextuales (Fumero, 2012a y 2012b) como textuales, formando parte del contenido de este documento entregable de tesis doctoral (véase el Prontuario, o el Texticulario).
Resumo:
Low resources in many African locations do not allow many African scientists and physicians to access the latest advances in technology. This deficiency hinders the daily life of African professionals that often cannot afford, for instance, the cost of internet fees or software licenses. The AFRICA BUILD project, funded by the European Commission and formed by four European and four African institutions, intends to provide advanced computational tools to African institutions in order to solve current technological limitations. In the context of AFRICA BUILD we have carried out, a series of experiments to test the feasibility of using Cloud Computing technologies in two different locations in Africa: Egypt and Burundi. The project aims to create a virtual platform to provide access to a wide range of biomedical informatics and learning resources to professionals and researchers in Africa.
Resumo:
In this paper, a computer-based tool is developed to analyze student performance along a given curriculum. The proposed software makes use of historical data to compute passing/failing probabilities and simulates future student academic performance based on stochastic programming methods (MonteCarlo) according to the specific university regulations. This allows to compute the academic performance rates for the specific subjects of the curriculum for each semester, as well as the overall rates (the set of subjects in the semester), which are the efficiency rate and the success rate. Additionally, we compute the rates for the Bachelors degree, which are the graduation rate measured as the percentage of students who finish as scheduled or taking an extra year and the efficiency rate (measured as the percentage of credits of the curriculum with respect to the credits really taken). In Spain, these metrics have been defined by the National Quality Evaluation and Accreditation Agency (ANECA). Moreover, the sensitivity of the performance metrics to some of the parameters of the simulator is analyzed using statistical tools (Design of Experiments). The simulator has been adapted to the curriculum characteristics of the Bachelor in Engineering Technologies at the Technical University of Madrid(UPM).
Resumo:
Las transiciones en guía de onda son las estructuras utilizadas en microondas para transferir y adaptar la señal que viaja en un determinado sistema de transmisión (por ejemplo, un cable coaxial) a otro sistema de transmisión o a un sistema radiante (por ejemplo, una antena de bocina). Los dos sistemas de transmisión entre los que la transición adapta la señal pueden ser distintos o del mismo tipo pero con alguna de sus dimensiones diferente. Existen diferentes transiciones de guía de onda que dependiendo de su utilidad son diseñadas y construidas con diferentes secciones: circular, rectangular, elíptica o incluso combinaciones de éstas. No es necesario que la sección de la guía presente una forma geométrica conocida pero los estándares que se van a seguir hacen referencia en concreto a secciones rectangulares y circulares. En el trabajo que aquí se desarrolla se pretende optimizar por medio de simulaciones paramétricas una transición entre cable coaxial con conector tipo K y una guía de onda de sección circular que sigue el estándar presentado por Flann, Millitech y Antarfs para la banda WR34. La transición que va a ser objeto de este estudio se denomina transición tapered o transición conformada. Este tipo de transiciones se caracterizan por variar una de sus dimensiones progresivamente hasta llegar al tamaño definido en el estándar correspondiente. La manera de realizar la optimización de la transición se basará en el estudio del parámetro S11 que presente la estructura a lo largo de la banda de trabajo. Ya que se sigue el estándar WR34 la banda de trabajo que éste comprende va de 21,7 a 33 GHz. Se pretende conseguir que la respuesta del parámetro S11 se encuentre por debajo de -20 dB en la banda de WR34 como resultado del diseño para poder contar de esta manera con una buena adaptación. Finalmente se propondrá un criterio a seguir para optimizar este tipo de transiciones siguiendo el objetivo de mejor adaptación teniendo en cuenta el impacto de cada tramo sobre el rango de frecuencias en el que influye y se presentarán las características finales que presenta la transición bajo estudio. En este documento se introduce de manera breve la utilidad de los transformadores de impedancias lambda cuartos en líneas de transmisión, el estado del arte de las diferentes técnicas para su diseño, y la propuesta de diseño y caracterización objeto del presente trabajo. Posteriormente, se presenta el caso de estudio para el diseño de la transición para ser integrada a una bocina de choke. Luego, se introduce el marco teórico del trabajo presentando algunos ejemplos ilustrativos de tramos de guía de onda rectangular y guía de onda circular, introduciendo adaptadores de λ/4 en simulaciones. A continuación, se explica la implementación del modelo bajo estudio en CST (Computer Simulation Technology) Studio Suite. Finalmente se presenta la discusión de los resultados obtenidos, las conclusiones y líneas futuras de trabajo. ABSTRACT. Waveguide transitions are structures used in microwave in order to transfer and adapt the signal that travels from a certain transmission system (e.g. coaxial cable) to other transmission system or to a radiant system (e.g. horn antenna). Both transmission systems between which the transition adapts the signal can be different or from the same type, but with differences in some of their dimensions. There are different waveguide transitions that, depending on their utility, are designed and constructed in different sections: circular, rectangular, elliptic or combinations of the former. The section of the guide does not have to have a known geometric shape, although the standards to be followed in this thesis apply to rectangular and circular sections. In the work here presented, we aim to optimize by means of parametric simulations, a transition between a coaxial cable with a K-type connector and a waveguide with circular section following the standard presented by Flann, Millitech y Antarfs for the band WR34. The transition studied is called tapered transition, which is characterized by the progressive variation of its dimensions, until reaching the defined size of the corresponding standard. The way of optimizing the transition will be based in the study of the parameter S11 presented by the structure along the bandwidth. Since the standard used is the WR34, the bandwidth can be defined from 21.7 up to 33 GHz. It is aimed that the response of the S11 parameter be lower equal than -20dB in the frequency band under study according to the design in order to be well matched. Finally, a criterion to follow is proposed in order to optimize these transitions type, following the better-match objective. That will be done taking into account the impact of each section on the frequency range in which influences and the final characteristics of the studied transition will be presented. In this document, it is briefly introduced the utility of quarter-wave impedance transformers in transmission lines, the state-of-art of the different techniques for their design, and the proposal of design and characterization aimed with this work. Afterwards, the study case for the design of the transition to be integrated with a choke horn antenna will be presented. Later, the theoretical frame work is introduced, giving some illustrative examples of rectangular and circular waveguide sections, and also introducing λ/4 adaptors in the simulations. Subsequently, the implementation of the model under study in CST (Computer Simulation Technology) Studio Suite will be explained. Finally, the discussion of the results, conclusion and future lines of the work are presented.
Resumo:
Optimism is growing that the near future will witness rapid growth in human-computer interaction using voice. System prototypes have recently been built that demonstrate speaker-independent real-time speech recognition, and understanding of naturally spoken utterances with vocabularies of 1000 to 2000 words, and larger. Already, computer manufacturers are building speech recognition subsystems into their new product lines. However, before this technology can be broadly useful, a substantial knowledge base is needed about human spoken language and performance during computer-based spoken interaction. This paper reviews application areas in which spoken interaction can play a significant role, assesses potential benefits of spoken interaction with machines, and compares voice with other modalities of human-computer interaction. It also discusses information that will be needed to build a firm empirical foundation for the design of future spoken and multimodal interfaces. Finally, it argues for a more systematic and scientific approach to investigating spoken input and performance with future language technology.
Resumo:
This paper describes a range of opportunities for military and government applications of human-machine communication by voice, based on visits and contacts with numerous user organizations in the United States. The applications include some that appear to be feasible by careful integration of current state-of-the-art technology and others that will require a varying mix of advances in speech technology and in integration of the technology into applications environments. Applications that are described include (1) speech recognition and synthesis for mobile command and control; (2) speech processing for a portable multifunction soldier's computer; (3) speech- and language-based technology for naval combat team tactical training; (4) speech technology for command and control on a carrier flight deck; (5) control of auxiliary systems, and alert and warning generation, in fighter aircraft and helicopters; and (6) voice check-in, report entry, and communication for law enforcement agents or special forces. A phased approach for transfer of the technology into applications is advocated, where integration of applications systems is pursued in parallel with advanced research to meet future needs.
Resumo:
Medical imaging has become an absolutely essential diagnostic tool for clinical practices; at present, pathologies can be detected with an earliness never before known. Its use has not only been relegated to the field of radiology but also, increasingly, to computer-based imaging processes prior to surgery. Motion analysis, in particular, plays an important role in analyzing activities or behaviors of live objects in medicine. This short paper presents several low-cost hardware implementation approaches for the new generation of tablets and/or smartphones for estimating motion compensation and segmentation in medical images. These systems have been optimized for breast cancer diagnosis using magnetic resonance imaging technology with several advantages over traditional X-ray mammography, for example, obtaining patient information during a short period. This paper also addresses the challenge of offering a medical tool that runs on widespread portable devices, both on tablets and/or smartphones to aid in patient diagnostics.
Resumo:
Introduction: Self-help computer-based programs are easily accessible and cost-effective interventions with a great recruitment potential. However, each program is different and results of meta-analyses may not apply to each new program; therefore, evaluations of new programs are warranted. The aim of this study was to assess the marginal efficacy of a computer-based, individually tailored program (the Coach) over and above the use of a comprehensive Internet smoking cessation website. Methods: A two-group randomized controlled trial was conducted. The control group only accessed the website, whereas the intervention group received the Coach in addition. Follow-up was conducted by e-mail after three and six months (self-administrated questionnaires). Of 1120 participants, 579 (51.7%) responded after three months and 436 (38.9%) after six months. The primary outcome was self-reported smoking abstinence over four weeks. Results: Counting dropouts as smokers, there were no statistically significant differences between intervention and control groups in smoking cessation rates after three months (20.2% vs. 17.5%, p¼0.25, odds ratio (OR)¼1.20) and six months (17% vs. 15.5%, p¼0.52, OR¼1.12). Excluding dropouts from the analysis, there were statistically significant differences after three months (42% vs. 31.6%, p¼0.01, OR¼1.57), but not after six months (46.1% vs. 37.8%, p¼0.081, OR¼1.41). The program also significantly increased motivation to quit after three months and self-efficacy after three and six months. Discussion: An individually tailored program delivered via the Internet and by e-mail in addition to a smoking cessation website did not significantly increase smoking cessation rates, but it increased motivation to quit and self-efficacy.
Resumo:
Virtual learning environments (VLEs) are computer-based online learning environments, which provide opportunities for online learners to learn at the time and location of their choosing, whilst allowing interactions and encounters with other online learners, as well as affording access to a wide range of resources. They have the capability of reaching learners in remote areas around the country or across country boundaries at very low cost. Personalized VLEs are those VLEs that provide a set of personalization functionalities, such as personalizing learning plans, learning materials, tests, and are capable of initializing the interaction with learners by providing advice, necessary instant messages, etc., to online learners. One of the major challenges involved in developing personalized VLEs is to achieve effective personalization functionalities, such as personalized content management, learner model, learner plan and adaptive instant interaction. Autonomous intelligent agents provide an important technology for accomplishing personalization in VLEs. A number of agents work collaboratively to enable personalization by recognizing an individual's eLeaming pace and reacting correspondingly. In this research, a personalization model has been developed that demonstrates dynamic eLearning processes; secondly, this study proposes an architecture for PVLE by using intelligent decision-making agents' autonomous, pre-active and proactive behaviors. A prototype system has been developed to demonstrate the implementation of this architecture. Furthemore, a field experiment has been conducted to investigate the performance of the prototype by comparing PVLE eLearning effectiveness with a non-personalized VLE. Data regarding participants' final exam scores were collected and analyzed. The results indicate that intelligent agent technology can be employed to achieve personalization in VLEs, and as a consequence to improve eLeaming effectiveness dramatically.
Resumo:
The increasing use of information and communications technologies among government departments and non-government agencies has fundamentally changed the implementation of employment services policy in Australia. The administrative arrangements for governing unemployment and unemployed people are now constituted by a complex contractual interplay between government departments as ‘purchasers’ and a range of small and large private organizations as ‘providers’. Assessing, tracking and monitoring the activities of unemployed people through the various parts of the employment services system has been made possible by developments in information technology and tailored computer programs. Consequently, the discretionary capacity that is traditionally associated with ‘street-level bureaucracy’ has been partly transformed into more prescriptive forms of ‘screen-level bureaucracy’. The knowledge embedded in these new computer-based technologies is considered superior because it is based on ‘objective calculations’, rather than subjective assessments of individual employees. The relationship between the sociopolitical context of unemployment policy and emerging forms of e-government is explored using illustrative findings from a qualitative pilot study undertaken in two Australian sites. The findings suggest that some of the new technologies in the employment services system are welcomed, while other applications are experienced as contradictory to the aims of delivering a personalized and respectful service.
Resumo:
Learning technologies are now a ubiquitous force in the higher education sector however we continue to pursue more inventive ways to use them for teaching and learning. Many teaching academics that seek to be innovative do not have access to a supportive technology innovation zone. The aim of this study was to investigate the articulated staff development needs of academics involved in a faculty based technology innovation project and create the conditions that would cultivate innovation. The study sought to find out how academics perceived they might best be assisted through their technology innovation process so that participants’ needs were incorporated into planning. A questionnaire was used to elicit background information about the academics’ experience, skills and self diagnosed skill deficits in this context. Participants were also requested to provide information about how they thought they would best acquire the skills given their time and other resource constraints. A modified Delphi Technique was utilised to achieve some consensus on what academics required to support technology innovation. Complemented by an enabling and empowering team based approach, the academics were provided with an innovation zone to achieve significant goals for the project.