854 resultados para Multimodal interfaces
Resumo:
Brain-Computer Interfaces are usually tackled from a medical point of view, correlating observed phenomena to physical facts known about the brain. Existing methods of classification lie in the application of deterministic algorithms and depend on certain degree of knowledge about the underlying phenomena so as to process data. In this demo, different architectures for an evolvable hardware classifier implemented on an FPGA are proposed, in line with the objective of generalizing evolutionary algorithms regardless of the application.
Resumo:
En este Trabajo Fin de Grado se ha realizado primero un informe técnico de la cámara de profundidad de la empresa SoftKinetic DepthSense 325 y de cuatro entornos de desarrollo que tiene como objetivo el uso de dicha cámara para el desarrollo de interfaces hombre-máquina: Perceptual Computing, RealSense, DepthSense e iisu. Posteriormente, tras la evaluación de los entornos de desarrollo y selección del más adecuado para el objetivo, se ha desarrollado un prototipo de un sistema de reconocimiento visual de gestos de manos. La principal contribución a dicho sistema es el uso de redes neuronales para la clasificación de patrones espacio-temporales que representan los gestos a reconocer. Para el entrenamiento de las redes neuronales, se han probado varias configuraciones y los métodos de optimización basados en Gradiente Conjugado y el Gradiente Conjugado Escalado, eficaces para grandes cantidades de información. El sistema propuesto basado en redes neuronales se ha comparado con las populares Máquinas Vectores Soporte, obteniéndose resultados equiparables en términos de reconocimiento de gestos
Resumo:
En este proyecto, se presenta un informe técnico sobre la cámara Leap Motion y el Software Development Kit correspondiente, el cual es un dispositivo con una cámara de profundidad orientada a interfaces hombre-máquina. Esto es realizado con el propósito de desarrollar una interfaz hombre-máquina basada en un sistema de reconocimiento de gestos de manos. Después de un exhaustivo estudio de la cámara Leap Motion, se han realizado diversos programas de ejemplo con la intención de verificar las capacidades descritas en el informe técnico, poniendo a prueba la Application Programming Interface y evaluando la precisión de las diferentes medidas obtenidas sobre los datos de la cámara. Finalmente, se desarrolla un prototipo de un sistema de reconocimiento de gestos. Los datos sobre la posición y orientación de la punta de los dedos obtenidos de la Leap Motion son usados para describir un gesto mediante un vector descriptor, el cual es enviado a una Máquina Vectores Soporte, utilizada como clasificador multi-clase.
Resumo:
A la hora de afrontar un proyecto de investigación, no basta con una vigilancia tradicional del entorno. Ya que debido a lo cambiante del mundo, a la globalización, a lo rápido que se desarrollan nuevas tecnologías y productos es preciso realizar un proceso sistemático que permita a las organizaciones o empresas anticiparse a los cambios tecnológicos. En este contexto, el diseño de metodologías basadas en la Vigilancia Tecnológica (VT) permite gestionar la actividad innovadora de organizaciones o empresas facilitando el proceso de generación de ideas para el desarrollo de productos o servicios. Es por ello que en este Proyecto de Fin de Grado se ha diseñado una estrategia para aplicar metodologías de Vigilancia Tecnológica aplicadas a un proyecto de I+D que estudia las Interfaces Naturales de Usuario (NUI). Para ello se ha partido de la metodología de trabajo basada en el proceso de Vigilancia Tecnológica e Inteligencia Competitiva del proyecto CETISME, identificando claramente cada una de las fases que lo componen: identificación de objetivos, selección de las fuentes de información, búsqueda y almacenamiento de la información, análisis de la información y por último validación de la información que concluye con la creación de informes de Vigilancia Tecnológica. Por lo tanto, para cada una de las fases que componen lo que comúnmente se llama el ciclo de la vigilancia, se ha explicado en primer lugar en qué consisten, que estrategias a seguir son las más adecuadas así como la manera de llevarlas a cabo, y por último, si fuera necesario, qué herramientas (desde bases de datos a software) son necesarias o son de utilidad para llevar a cabo el proceso y optimizarlo. De esta manera, como se verá a lo largo de este documento, la aplicación de dicha metodología permitirá a las organizaciones o empresas obtener situaciones ventajosas a la hora de innovar, captar oportunidades o detectar amenazas, identificar competidores o alianzas potenciales, entre otros. ABSTRACT. When taking over a research project, a traditional surveillance of the environment is not enough. Mainly due to the changing the world, to the globalization, to how fast new technologies and products are developed, is necessary to make a systematic process that enables organizations or companies anticipate to technological changes. In this context, the design of methodologies based on the Technology Watch (TW) allows managing the innovative activity of organizations or companies facilitating the process of generating ideas for products or services development. For this reason, in this Thesis a strategy for applying Technological Watch methodologies applied to a R&D project studying Natural User Interfaces (NUI) has been designed. To achieve this goal, the starting point was the CETISME project methodologies, which are based on the Technology Watch and the Competitive Intelligence process, clearly identifying each of the phases that compose it: identification of objectives, selection of the information sources, storage, search and analysis of the information, and finally validating the information that concludes with the creation of Technological Watch reports. Therefore, for each of the phases composing what is commonly known as the monitoring cycle, it has been explained in first place what they consist of, what strategies are more adequate as well as how they should be implemented, and finally, if necessary, what tools (from databases to software) are needed or are useful for managing the process and optimize it. Thus, as discussed throughout this document, the application of said methodology will allow organizations or companies to obtain advantageous situations when it comes to innovate, catch opportunities or detect threats, to identify competitors or potential alliances, among others.
Resumo:
En el mundo actual las aplicaciones basadas en sistemas biométricos, es decir, aquellas que miden las señales eléctricas de nuestro organismo, están creciendo a un gran ritmo. Todos estos sistemas incorporan sensores biomédicos, que ayudan a los usuarios a controlar mejor diferentes aspectos de la rutina diaria, como podría ser llevar un seguimiento detallado de una rutina deportiva, o de la calidad de los alimentos que ingerimos. Entre estos sistemas biométricos, los que se basan en la interpretación de las señales cerebrales, mediante ensayos de electroencefalografía o EEG están cogiendo cada vez más fuerza para el futuro, aunque están todavía en una situación bastante incipiente, debido a la elevada complejidad del cerebro humano, muy desconocido para los científicos hasta el siglo XXI. Por estas razones, los dispositivos que utilizan la interfaz cerebro-máquina, también conocida como BCI (Brain Computer Interface), están cogiendo cada vez más popularidad. El funcionamiento de un sistema BCI consiste en la captación de las ondas cerebrales de un sujeto para después procesarlas e intentar obtener una representación de una acción o de un pensamiento del individuo. Estos pensamientos, correctamente interpretados, son posteriormente usados para llevar a cabo una acción. Ejemplos de aplicación de sistemas BCI podrían ser mover el motor de una silla de ruedas eléctrica cuando el sujeto realice, por ejemplo, la acción de cerrar un puño, o abrir la cerradura de tu propia casa usando un patrón cerebral propio. Los sistemas de procesamiento de datos están evolucionando muy rápido con el paso del tiempo. Los principales motivos son la alta velocidad de procesamiento y el bajo consumo energético de las FPGAs (Field Programmable Gate Array). Además, las FPGAs cuentan con una arquitectura reconfigurable, lo que las hace más versátiles y potentes que otras unidades de procesamiento como las CPUs o las GPUs.En el CEI (Centro de Electrónica Industrial), donde se lleva a cabo este TFG, se dispone de experiencia en el diseño de sistemas reconfigurables en FPGAs. Este TFG es el segundo de una línea de proyectos en la cual se busca obtener un sistema capaz de procesar correctamente señales cerebrales, para llegar a un patrón común que nos permita actuar en consecuencia. Más concretamente, se busca detectar cuando una persona está quedándose dormida a través de la captación de unas ondas cerebrales, conocidas como ondas alfa, cuya frecuencia está acotada entre los 8 y los 13 Hz. Estas ondas, que aparecen cuando cerramos los ojos y dejamos la mente en blanco, representan un estado de relajación mental. Por tanto, este proyecto comienza como inicio de un sistema global de BCI, el cual servirá como primera toma de contacto con el procesamiento de las ondas cerebrales, para el posterior uso de hardware reconfigurable sobre el cual se implementarán los algoritmos evolutivos. Por ello se vuelve necesario desarrollar un sistema de procesamiento de datos en una FPGA. Estos datos se procesan siguiendo la metodología de procesamiento digital de señales, y en este caso se realiza un análisis de la frecuencia utilizando la transformada rápida de Fourier, o FFT. Una vez desarrollado el sistema de procesamiento de los datos, se integra con otro sistema que se encarga de captar los datos recogidos por un ADC (Analog to Digital Converter), conocido como ADS1299. Este ADC está especialmente diseñado para captar potenciales del cerebro humano. De esta forma, el sistema final capta los datos mediante el ADS1299, y los envía a la FPGA que se encarga de procesarlos. La interpretación es realizada por los usuarios que analizan posteriormente los datos procesados. Para el desarrollo del sistema de procesamiento de los datos, se dispone primariamente de dos plataformas de estudio, a partir de las cuales se captarán los datos para después realizar el procesamiento: 1. La primera consiste en una herramienta comercial desarrollada y distribuida por OpenBCI, proyecto que se dedica a la venta de hardware para la realización de EEG, así como otros ensayos. Esta herramienta está formada por un microprocesador, un módulo de memoria SD para el almacenamiento de datos, y un módulo de comunicación inalámbrica que transmite los datos por Bluetooth. Además cuenta con el mencionado ADC ADS1299. Esta plataforma ofrece una interfaz gráfica que sirve para realizar la investigación previa al diseño del sistema de procesamiento, al permitir tener una primera toma de contacto con el sistema. 2. La segunda plataforma consiste en un kit de evaluación para el ADS1299, desde la cual se pueden acceder a los diferentes puertos de control a través de los pines de comunicación del ADC. Esta plataforma se conectará con la FPGA en el sistema integrado. Para entender cómo funcionan las ondas más simples del cerebro, así como saber cuáles son los requisitos mínimos en el análisis de ondas EEG se realizaron diferentes consultas con el Dr Ceferino Maestu, neurofisiólogo del Centro de Tecnología Biomédica (CTB) de la UPM. Él se encargó de introducirnos en los distintos procedimientos en el análisis de ondas en electroencefalogramas, así como la forma en que se deben de colocar los electrodos en el cráneo. Para terminar con la investigación previa, se realiza en MATLAB un primer modelo de procesamiento de los datos. Una característica muy importante de las ondas cerebrales es la aleatoriedad de las mismas, de forma que el análisis en el dominio del tiempo se vuelve muy complejo. Por ello, el paso más importante en el procesamiento de los datos es el paso del dominio temporal al dominio de la frecuencia, mediante la aplicación de la transformada rápida de Fourier o FFT (Fast Fourier Transform), donde se pueden analizar con mayor precisión los datos recogidos. El modelo desarrollado en MATLAB se utiliza para obtener los primeros resultados del sistema de procesamiento, el cual sigue los siguientes pasos. 1. Se captan los datos desde los electrodos y se escriben en una tabla de datos. 2. Se leen los datos de la tabla. 3. Se elige el tamaño temporal de la muestra a procesar. 4. Se aplica una ventana para evitar las discontinuidades al principio y al final del bloque analizado. 5. Se completa la muestra a convertir con con zero-padding en el dominio del tiempo. 6. Se aplica la FFT al bloque analizado con ventana y zero-padding. 7. Los resultados se llevan a una gráfica para ser analizados. Llegados a este punto, se observa que la captación de ondas alfas resulta muy viable. Aunque es cierto que se presentan ciertos problemas a la hora de interpretar los datos debido a la baja resolución temporal de la plataforma de OpenBCI, este es un problema que se soluciona en el modelo desarrollado, al permitir el kit de evaluación (sistema de captación de datos) actuar sobre la velocidad de captación de los datos, es decir la frecuencia de muestreo, lo que afectará directamente a esta precisión. Una vez llevado a cabo el primer procesamiento y su posterior análisis de los resultados obtenidos, se procede a realizar un modelo en Hardware que siga los mismos pasos que el desarrollado en MATLAB, en la medida que esto sea útil y viable. Para ello se utiliza el programa XPS (Xilinx Platform Studio) contenido en la herramienta EDK (Embedded Development Kit), que nos permite diseñar un sistema embebido. Este sistema cuenta con: Un microprocesador de tipo soft-core llamado MicroBlaze, que se encarga de gestionar y controlar todo el sistema; Un bloque FFT que se encarga de realizar la transformada rápida Fourier; Cuatro bloques de memoria BRAM, donde se almacenan los datos de entrada y salida del bloque FFT y un multiplicador para aplicar la ventana a los datos de entrada al bloque FFT; Un bus PLB, que consiste en un bus de control que se encarga de comunicar el MicroBlaze con los diferentes elementos del sistema. Tras el diseño Hardware se procede al diseño Software utilizando la herramienta SDK(Software Development Kit).También en esta etapa se integra el sistema de captación de datos, el cual se controla mayoritariamente desde el MicroBlaze. Por tanto, desde este entorno se programa el MicroBlaze para gestionar el Hardware que se ha generado. A través del Software se gestiona la comunicación entre ambos sistemas, el de captación y el de procesamiento de los datos. También se realiza la carga de los datos de la ventana a aplicar en la memoria correspondiente. En las primeras etapas de desarrollo del sistema, se comienza con el testeo del bloque FFT, para poder comprobar el funcionamiento del mismo en Hardware. Para este primer ensayo, se carga en la BRAM los datos de entrada al bloque FFT y en otra BRAM los datos de la ventana aplicada. Los datos procesados saldrán a dos BRAM, una para almacenar los valores reales de la transformada y otra para los imaginarios. Tras comprobar el correcto funcionamiento del bloque FFT, se integra junto al sistema de adquisición de datos. Posteriormente se procede a realizar un ensayo de EEG real, para captar ondas alfa. Por otro lado, y para validar el uso de las FPGAs como unidades ideales de procesamiento, se realiza una medición del tiempo que tarda el bloque FFT en realizar la transformada. Este tiempo se compara con el tiempo que tarda MATLAB en realizar la misma transformada a los mismos datos. Esto significa que el sistema desarrollado en Hardware realiza la transformada rápida de Fourier 27 veces más rápido que lo que tarda MATLAB, por lo que se puede ver aquí la gran ventaja competitiva del Hardware en lo que a tiempos de ejecución se refiere. En lo que al aspecto didáctico se refiere, este TFG engloba diferentes campos. En el campo de la electrónica: Se han mejorado los conocimientos en MATLAB, así como diferentes herramientas que ofrece como FDATool (Filter Design Analysis Tool). Se han adquirido conocimientos de técnicas de procesado de señal, y en particular, de análisis espectral. Se han mejorado los conocimientos en VHDL, así como su uso en el entorno ISE de Xilinx. Se han reforzado los conocimientos en C mediante la programación del MicroBlaze para el control del sistema. Se ha aprendido a crear sistemas embebidos usando el entorno de desarrollo de Xilinx usando la herramienta EDK (Embedded Development Kit). En el campo de la neurología, se ha aprendido a realizar ensayos EEG, así como a analizar e interpretar los resultados mostrados en el mismo. En cuanto al impacto social, los sistemas BCI afectan a muchos sectores, donde destaca el volumen de personas con discapacidades físicas, para los cuales, este sistema implica una oportunidad de aumentar su autonomía en el día a día. También otro sector importante es el sector de la investigación médica, donde los sistemas BCIs son aplicables en muchas aplicaciones como, por ejemplo, la detección y estudio de enfermedades cognitivas.
Resumo:
Esta tese é o resultado de uma pesquisa sobre o uso e a influência do dinheiro no que tange às questões existenciais, no contexto capitalista, ligadas ao trinômio: saúde, amor e espiritualidade. Para isso, foram analisados vários tipos de vínculo, afetivos ou não, existentes nas relações humanas, no âmbito da família, do mercado e do Estado, convergindo para a busca do sagrado que dá sentido e significado existenciais. O eixo teórico se localiza em uma interface entre as Ciências Sociais e a Psicologia Analítica, de Carl Gustav Jung (1875-1961), que expressa em sua obra a necessidade humana de encontrar a realização do ser pela conquista consciente de um estado de integração evolutiva. Esta dimensão integral existe quando é realizada a unificação dos vários aspectos do eu com o inconsciente, expressos teleologicamente no processo de individuação. O resultado da evolução científica e tecnológica, acrescido pela supremacia do mercado, abrange praticamente todas as esferas da vida humana, imprimindo uma importância excessiva ao dinheiro. Por exemplo, até o campo religioso foi invadido pela lógica monetária, que se instalou impondo uma atitude monetarizada nas práticas e ritos religiosos, como ocorre em algumas igrejas neopentecostais. Por sua vez, a supervalorização do dinheiro contribui para um processo que combina dessacralização e exclusão social, bem como para o aumento significativo de doenças em todas as instâncias em que as trocas deixaram de acontecer livremente. Com a interdição das trocas, a vida se esvai, comprometendo a evolução humana nas instâncias físicas, psíquicas, sociais, espirituais, familiares, afetivas ou profissionais. Como os desejos de lucro e de acúmulo impedem as trocas, a conquista da dimensão integral vai ficando sombreada até ser substituída pela anestesia do consumo, no sentido de aliviar, apesar de não eliminar, os sentimentos de angústia pela falta de sentido existencial. Busca-se neste trabalho o entendimento da razão pela qual o ser humano contemporâneo deixou de trocar livremente e passou a acumular, muitas vezes por meio de consumo do supérfluo, ficando à mercê de um mercado que pretende ser hegemônico, colocando inclusive o dinheiro como caminho de cura e salvação. Fizemos um levantamento das possibilidades que podem restar para a concretização de uma readequação do uso do dinheiro a serviço da individuação e da realização existencial.(AU)
Resumo:
Esta tese é o resultado de uma pesquisa sobre o uso e a influência do dinheiro no que tange às questões existenciais, no contexto capitalista, ligadas ao trinômio: saúde, amor e espiritualidade. Para isso, foram analisados vários tipos de vínculo, afetivos ou não, existentes nas relações humanas, no âmbito da família, do mercado e do Estado, convergindo para a busca do sagrado que dá sentido e significado existenciais. O eixo teórico se localiza em uma interface entre as Ciências Sociais e a Psicologia Analítica, de Carl Gustav Jung (1875-1961), que expressa em sua obra a necessidade humana de encontrar a realização do ser pela conquista consciente de um estado de integração evolutiva. Esta dimensão integral existe quando é realizada a unificação dos vários aspectos do eu com o inconsciente, expressos teleologicamente no processo de individuação. O resultado da evolução científica e tecnológica, acrescido pela supremacia do mercado, abrange praticamente todas as esferas da vida humana, imprimindo uma importância excessiva ao dinheiro. Por exemplo, até o campo religioso foi invadido pela lógica monetária, que se instalou impondo uma atitude monetarizada nas práticas e ritos religiosos, como ocorre em algumas igrejas neopentecostais. Por sua vez, a supervalorização do dinheiro contribui para um processo que combina dessacralização e exclusão social, bem como para o aumento significativo de doenças em todas as instâncias em que as trocas deixaram de acontecer livremente. Com a interdição das trocas, a vida se esvai, comprometendo a evolução humana nas instâncias físicas, psíquicas, sociais, espirituais, familiares, afetivas ou profissionais. Como os desejos de lucro e de acúmulo impedem as trocas, a conquista da dimensão integral vai ficando sombreada até ser substituída pela anestesia do consumo, no sentido de aliviar, apesar de não eliminar, os sentimentos de angústia pela falta de sentido existencial. Busca-se neste trabalho o entendimento da razão pela qual o ser humano contemporâneo deixou de trocar livremente e passou a acumular, muitas vezes por meio de consumo do supérfluo, ficando à mercê de um mercado que pretende ser hegemônico, colocando inclusive o dinheiro como caminho de cura e salvação. Fizemos um levantamento das possibilidades que podem restar para a concretização de uma readequação do uso do dinheiro a serviço da individuação e da realização existencial.(AU)
Resumo:
O trabalho é um estudo exploratório sobre o processamento de mensagens de entretenimento. O objetivo do trabalho foi propor e testar um modelo de processamento de mensagens dedicado à compreensão de jogos digitais. Para realizar tal tarefa realizou-se um extenso levantamento de técnicas de observação de usuários diante de softwares e mídias, para conhecer as qualidades e limitações de cada uma dessas técnicas, bem como de sua abordagem do problema. Também foi realizado um levantamento dos modelos de processamento de mensagens nas mídias tradicionais e nas novas mídias. Com isso foi possível propor um novo modelo de análise de processamento de mensagens de entretenimento. Uma vez criado o modelo teórico, fez-se preciso testar se os elementos propostos como participantes desse processo estavam corretos e se seriam capazes de capturar adequadamente as semelhanças e diferenças entre a interação entre jogadores e as diferentes mídias. Por essa razão, estruturou-se uma ferramenta de coleta de dados, que foi validada junto a designers de jogos digitais, uma vez que esses profissionais conhecem o processo de criação de um jogo, seus elementos e objetivos. Posteriormente, foi feito um primeiro teste, junto a praticantes de jogos digitais de diversas idades em computadores pessoais e TV digital interativa, a fim e verificar como os elementos do modelo relacionavam-se entre si. O teste seguinte fez a coleta de dados de praticantes de jogos digitais em aparelhos celulares, tendo como objetivo capturar como se dá a formação de uma experiência através do processamento da mensagem de entretenimento num meio cujas limitações são inúmeras: tamanho de tela e teclas, para citar algumas delas. Como resultado, verificou-se, por meio de testes estatísticos, que jogos praticados em meios como computadores pessoais atraem mais por seus aspectos estéticos, enquanto a apreciação de um jogo em aparelhos celulares depende muito mais de sua habilidade de manter a interação que um jogo praticado em PC. Com isso conclui-se que o processamento das mensagens de entretenimento depende da capacidade dos seus criadores em entender os limites de cada meio e usar adequadamente os elementos que compõe o ambiente de um jogo, para conseguir levar à apreciação do mesmo.(AU)
Resumo:
O trabalho é um estudo exploratório sobre o processamento de mensagens de entretenimento. O objetivo do trabalho foi propor e testar um modelo de processamento de mensagens dedicado à compreensão de jogos digitais. Para realizar tal tarefa realizou-se um extenso levantamento de técnicas de observação de usuários diante de softwares e mídias, para conhecer as qualidades e limitações de cada uma dessas técnicas, bem como de sua abordagem do problema. Também foi realizado um levantamento dos modelos de processamento de mensagens nas mídias tradicionais e nas novas mídias. Com isso foi possível propor um novo modelo de análise de processamento de mensagens de entretenimento. Uma vez criado o modelo teórico, fez-se preciso testar se os elementos propostos como participantes desse processo estavam corretos e se seriam capazes de capturar adequadamente as semelhanças e diferenças entre a interação entre jogadores e as diferentes mídias. Por essa razão, estruturou-se uma ferramenta de coleta de dados, que foi validada junto a designers de jogos digitais, uma vez que esses profissionais conhecem o processo de criação de um jogo, seus elementos e objetivos. Posteriormente, foi feito um primeiro teste, junto a praticantes de jogos digitais de diversas idades em computadores pessoais e TV digital interativa, a fim e verificar como os elementos do modelo relacionavam-se entre si. O teste seguinte fez a coleta de dados de praticantes de jogos digitais em aparelhos celulares, tendo como objetivo capturar como se dá a formação de uma experiência através do processamento da mensagem de entretenimento num meio cujas limitações são inúmeras: tamanho de tela e teclas, para citar algumas delas. Como resultado, verificou-se, por meio de testes estatísticos, que jogos praticados em meios como computadores pessoais atraem mais por seus aspectos estéticos, enquanto a apreciação de um jogo em aparelhos celulares depende muito mais de sua habilidade de manter a interação que um jogo praticado em PC. Com isso conclui-se que o processamento das mensagens de entretenimento depende da capacidade dos seus criadores em entender os limites de cada meio e usar adequadamente os elementos que compõe o ambiente de um jogo, para conseguir levar à apreciação do mesmo.(AU)
Resumo:
O trabalho desenvolvido com adolescentes, pensando na promoção de sua saúde, bem como em seu desenvolvimento saudável por meio de espaços que atendam suas necessidades, tem sido de responsabilidade também de organizações sociais. Em especial, quando se tem o objetivo de prepará- los para o mundo do trabalho, porém com uma proposta mais ampla, ou seja, como uma preparação para suas relações na vida, pela passagem de um processo de aprendizagem, de amadurecimento, por meio da construção de ações significativas para vida. Esta é a proposta do Centro de Orientação ao Adolescente de Campinas COMEC , organização não governamental, que conta com um Progr ama de Aprendizagem Profissional- PAP . Sendo assim, esse estudo tem como objetivo caracterizar, por meio de prontuários, uma amostra de 280 adolescentes, compreender a percepção deles no processo vivido e identificar as expectativas na admissão, demissão e desligamento do programa - PAP. A pesquisa teve como participantes adolescentes de 14 a 17 anos, do gênero feminino e masculino, do ensino fundamental e médio (7ª série E.F até 3ª série E.M). Os formulários foram preenchidos em três momentos: primeiro quando o adolescente participava da seleção para ingressar no programa, segundo, quando ele iniciava o trabalho na empresa e no término do contrato do adolescente com o programa. Os resultados obtidos por meio dos prontuários dos adolescentes mostraram que a percepção que eles têm a respeito do programa é positiva. Perceberam-se sentimentos de medo, insegurança, alegrias e desejos a respeito das atividades que os preparam para a inserção no mercado formal de trabalho, e o quanto o acompanhamento pelo programa permite outro olhar para esta inclusão. Ainda que o trabalho juvenil não seja a solução para as necessidades econômicas de muitas famílias, o trabalho educativo tem sido visto como uma forma de permitir que o adolescente vivencie sua primeira experiência de trabalho, respeitando sua condição de pessoa em desenvolvimento. Porém, em alguns casos, acabam por contribuir de forma significativa no orçamento familiar.(AU)
Resumo:
O trabalho desenvolvido com adolescentes, pensando na promoção de sua saúde, bem como em seu desenvolvimento saudável por meio de espaços que atendam suas necessidades, tem sido de responsabilidade também de organizações sociais. Em especial, quando se tem o objetivo de prepará- los para o mundo do trabalho, porém com uma proposta mais ampla, ou seja, como uma preparação para suas relações na vida, pela passagem de um processo de aprendizagem, de amadurecimento, por meio da construção de ações significativas para vida. Esta é a proposta do Centro de Orientação ao Adolescente de Campinas COMEC , organização não governamental, que conta com um Progr ama de Aprendizagem Profissional- PAP . Sendo assim, esse estudo tem como objetivo caracterizar, por meio de prontuários, uma amostra de 280 adolescentes, compreender a percepção deles no processo vivido e identificar as expectativas na admissão, demissão e desligamento do programa - PAP. A pesquisa teve como participantes adolescentes de 14 a 17 anos, do gênero feminino e masculino, do ensino fundamental e médio (7ª série E.F até 3ª série E.M). Os formulários foram preenchidos em três momentos: primeiro quando o adolescente participava da seleção para ingressar no programa, segundo, quando ele iniciava o trabalho na empresa e no término do contrato do adolescente com o programa. Os resultados obtidos por meio dos prontuários dos adolescentes mostraram que a percepção que eles têm a respeito do programa é positiva. Perceberam-se sentimentos de medo, insegurança, alegrias e desejos a respeito das atividades que os preparam para a inserção no mercado formal de trabalho, e o quanto o acompanhamento pelo programa permite outro olhar para esta inclusão. Ainda que o trabalho juvenil não seja a solução para as necessidades econômicas de muitas famílias, o trabalho educativo tem sido visto como uma forma de permitir que o adolescente vivencie sua primeira experiência de trabalho, respeitando sua condição de pessoa em desenvolvimento. Porém, em alguns casos, acabam por contribuir de forma significativa no orçamento familiar.(AU)
Resumo:
Matrix-assisted laser desorption ionization–time-of-flight mass spectrometry was used to identify peptic fragments from protein complexes that retained deuterium under hydrogen exchange conditions due to decreased solvent accessibility at the interface of the complex. Short deuteration times allowed preferential labeling of rapidly exchanging surface amides so that primarily solvent accessibility changes and not conformational changes were detected. A single mass spectrum of the peptic digest mixture was analyzed to determine the deuterium content of all proteolytic fragments of the protein. The protein–protein interface was reliably indicated by those peptides that retained more deuterons in the complex compared with control experiments in which only one protein was present. The method was used to identify the kinase inhibitor [PKI(5–24)] and ATP-binding sites in the cyclic-AMP-dependent protein kinase. Three overlapping peptides identified the ATP-binding site, three overlapping peptides identified the glycine-rich loop, and two peptides identified the PKI(5–24)-binding site. A complex of unknown structure also was analyzed, human α-thrombin bound to an 83-aa fragment of human thrombomodulin [TMEGF(4–5)]. Five peptides from thrombin showed significantly decreased solvent accessibility in the complex. Three peptides identified the anion-binding exosite I, confirming ligand competition experiments. Two peptides identified a new region of thrombin near the active site providing a potential mechanism of how thrombomodulin alters thrombin substrate specificity.
Resumo:
This paper discusses some of the aspects of task requirements, user expectations, and technological capabilities that influence the design of a voice interface and then identifies several components of user interfaces that are particularly critical in successful voice applications. Examples from several applications are provided to demonstrate how these components are used to produce effective voice interfaces.
Resumo:
In molecular biology, the expression of fusion proteins is a very useful and well-established technique for the identification and one-step purification of gene products. Even a short fused sequence of five or six histidines enables proteins to bind to an immobilized metal ion chelate complex. By synthesis of a class of chelator lipids, we have transferred this approach to the concept of self-assembly. The specific interaction and lateral organization of a fluorescent fusion molecule containing a C-terminal oligohistidine sequence was studied by film balance techniques in combination with epifluorescence microscopy. Due to the phase behavior of the various lipid mixtures used, the chelator lipids can be laterally structured, generating two-dimensional arrays of histidine-tagged biomolecules. Because of the large variety of fusion proteins already available, this concept represents a powerful technique for orientation and organization of proteins at lipid interfaces with applications in biosensing, biofunctionalization of nanostructured interfaces, two-dimensional crystallization, and studies of lipid-anchored proteins.
Resumo:
In artificial multiferroics hybrids consisting of ferromagnetic La_(0.7)Sr_(0.3)MnO_(3) (LSMO) and ferroelectric BaTiO_(3) epitaxial layers, net Ti moments are found from polarized resonant soft x-ray reflectivity and absorption. The Ti dichroic reflectivity follows the Mn signal during the magnetization reversal, indicating exchange coupling between the Ti and Mn ions. However, the Ti dichroic reflectivity shows stronger temperature dependence than the Mn dichroic signal. Besides a reduced ferromagnetic exchange coupling in the interfacial LSMO layer, this may also be attributed to a weak Ti-Mn exchange coupling that is insufficient to overcome the thermal energy at elevated temperatures.