899 resultados para Computacional Intelligence in Medecine
Resumo:
Kleinskalige, multifunktionale Module haben ein hohes Potential bei der wirtschaftlichen und flexiblen Gestaltung intralogistischer Systeme mit hoher Funktionalität. Durch dezentrale Steuerung und eigener Intelligenz der Module ist das System frei skalierbar und der Installationsaufwand wird minimiert. Mittels eines neuartigen Konzeptes der Datenkommunikation für Stetigförderer erfolgt der Informationsaustausch drahtlos mit Hilfe optoelektrischer Elemente. Die Kleinskaligkeit der Transportmodule gegenüber der Transporteinheit im Zusammenhang mit dem Steuerungskonzept erlaubt eine selektive Beschaltung der Module nach Bedarf und damit eine optimierte Energieausnutzung im Betrieb. Prototypen auf Basis von Schwenkrollen mit integrierter Antriebstechnik und Steuerung lassen das Potential des Prinzips erkennen. Das neu entwickelte Konzept der Schrägscheibe hilft bei der anspruchsvollen Integration der Antriebstechnik in das Modul durch das Prinzip der koaxialen Aktoren. Durch omnidirektionalen Funktionsumfang der Module entsteht im Zusammenschluss zu einer Modulmatrix ein hochflexibel einsetzbares Intralogistik-Modul. Die Vernetzung dieser hochfunktionalen Knoten durch einfache Fördertechnik bietet die Möglichkeit einfacher Planung flexibler Logistiksysteme.
Resumo:
BACKGROUND In a high proportion of patients with favorable outcome after aneurysmal subarachnoid hemorrhage (aSAH), neuropsychological deficits, depression, anxiety, and fatigue are responsible for the inability to return to their regular premorbid life and pursue their professional careers. These problems often remain unrecognized, as no recommendations concerning a standardized comprehensive assessment have yet found entry into clinical routines. METHODS To establish a nationwide standard concerning a comprehensive assessment after aSAH, representatives of all neuropsychological and neurosurgical departments of those eight Swiss centers treating acute aSAH have agreed on a common protocol. In addition, a battery of questionnaires and neuropsychological tests was selected, optimally suited to the deficits found most prevalent in aSAH patients that was available in different languages and standardized. RESULTS We propose a baseline inpatient neuropsychological screening using the Montreal Cognitive Assessment (MoCA) between days 14 and 28 after aSAH. In an outpatient setting at 3 and 12 months after bleeding, we recommend a neuropsychological examination, testing all relevant domains including attention, speed of information processing, executive functions, verbal and visual learning/memory, language, visuo-perceptual abilities, and premorbid intelligence. In addition, a detailed assessment capturing anxiety, depression, fatigue, symptoms of frontal lobe affection, and quality of life should be performed. CONCLUSIONS This standardized neuropsychological assessment will lead to a more comprehensive assessment of the patient, facilitate the detection and subsequent treatment of previously unrecognized but relevant impairments, and help to determine the incidence, characteristics, modifiable risk factors, and the clinical course of these impairments after aSAH.
Resumo:
The Culture Fair Test (CFT) is a psychometric test of fluid intelligence consisting of four subtests; Series, Classification, Matrices, and Topographies. The four subtests are only moderately intercorrelated, doubting the notion that they assess the same construct (i.e., fluid intelligence). As an explanation of these low correlations, we investigated the position effect. This effect is assumed to reflect implicit learning during testing. By applying fixed-links modeling to analyze the CFT data of 206 participants, we identified position effects as latent variables in the subtests; Classification, Matrices, and Topographies. These position effects were disentangled from a second set of latent variables representing fluid intelligence inherent in the four subtests. After this separation of position effect and basic fluid intelligence, the latent variables representing basic fluid intelligence in the subtests Series, Matrices, and Topographies could be combined to one common latent variable which was highly correlated with fluid intelligence derived from the subtest Classification (r=.72). Correlations between the three latent variables representing the position effects in the Classification, Matrices, and Topographies subtests ranged from r=.38 to r=.59. The results indicate that all four CFT subtests measure the same construct (i.e., fluid intelligence) but that the position effect confounds the factorial structure
Resumo:
Nowadays, a wide offer of mobile augmented reality (mAR) applications is available at the market, and the user base of mobile AR-capable devices -smartphones- is rapidly increasing. Nevertheless, likewise to what happens in other mobile segments, business models to put mAR in value are not clearly defined yet. In this paper, we focus on sketching the big picture of the commercial offer of mAR applications, in order to inspire a posterior analysis of business models that may successfully support the evolution of mAR. We have gathered more than 400 mAR applications from Android Market, and analyzed the offer as a whole, taking into account some technology aspects, pricing schemes and user adoption factors. Results show, for example, that application providers are not expecting to generate revenues per direct download, although they are producing high-quality applications, well rated by the users.
Resumo:
DynaLearn (http://www.DynaLearn.eu) develops a cognitive artefact that engages learners in an active learning by modelling process to develop conceptual system knowledge. Learners create external representations using diagrams. The diagrams capture conceptual knowledge using the Garp3 Qualitative Reasoning (QR) formalism [2]. The expressions can be simulated, confronting learners with the logical consequences thereof. To further aid learners, DynaLearn employs a sequence of knowledge representations (Learning Spaces, LS), with increasing complexity in terms of the modelling ingredients a learner can use [1]. An online repository contains QR models created by experts/teachers and learners. The server runs semantic services [4] to generate feedback at the request of learners via the workbench. The feedback is communicated to the learner via a set of virtual characters, each having its own competence [3]. A specific feedback thus incorporates three aspects: content, character appearance, and a didactic setting (e.g. Quiz mode). In the interactive event we will demonstrate the latest achievements of the DynaLearn project. First, the 6 learning spaces for learners to work with. Second, the generation of feedback relevant to the individual needs of a learner using Semantic Web technology. Third, the verbalization of the feedback via different animated virtual characters, notably: Basic help, Critic, Recommender, Quizmaster & Teachable agen
Resumo:
This work explores the automatic recognition of physical activity intensity patterns from multi-axial accelerometry and heart rate signals. Data collection was carried out in free-living conditions and in three controlled gymnasium circuits, for a total amount of 179.80 h of data divided into: sedentary situations (65.5%), light-to-moderate activity (17.6%) and vigorous exercise (16.9%). The proposed machine learning algorithms comprise the following steps: time-domain feature definition, standardization and PCA projection, unsupervised clustering (by k-means and GMM) and a HMM to account for long-term temporal trends. Performance was evaluated by 30 runs of a 10-fold cross-validation. Both k-means and GMM-based approaches yielded high overall accuracy (86.97% and 85.03%, respectively) and, given the imbalance of the dataset, meritorious F-measures (up to 77.88%) for non-sedentary cases. Classification errors tended to be concentrated around transients, what constrains their practical impact. Hence, we consider our proposal to be suitable for 24 h-based monitoring of physical activity in ambulatory scenarios and a first step towards intensity-specific energy expenditure estimators
Resumo:
Objectives: A recently introduced pragmatic scheme promises to be a useful catalog of interneuron names.We sought to automatically classify digitally reconstructed interneuronal morphologies according tothis scheme. Simultaneously, we sought to discover possible subtypes of these types that might emergeduring automatic classification (clustering). We also investigated which morphometric properties weremost relevant for this classification.Materials and methods: A set of 118 digitally reconstructed interneuronal morphologies classified into thecommon basket (CB), horse-tail (HT), large basket (LB), and Martinotti (MA) interneuron types by 42 of theworld?s leading neuroscientists, quantified by five simple morphometric properties of the axon and fourof the dendrites. We labeled each neuron with the type most commonly assigned to it by the experts. Wethen removed this class information for each type separately, and applied semi-supervised clustering tothose cells (keeping the others? cluster membership fixed), to assess separation from other types and lookfor the formation of new groups (subtypes). We performed this same experiment unlabeling the cells oftwo types at a time, and of half the cells of a single type at a time. The clustering model is a finite mixtureof Gaussians which we adapted for the estimation of local (per-cluster) feature relevance. We performedthe described experiments on three different subsets of the data, formed according to how many expertsagreed on type membership: at least 18 experts (the full data set), at least 21 (73 neurons), and at least26 (47 neurons).Results: Interneurons with more reliable type labels were classified more accurately. We classified HTcells with 100% accuracy, MA cells with 73% accuracy, and CB and LB cells with 56% and 58% accuracy,respectively. We identified three subtypes of the MA type, one subtype of CB and LB types each, andno subtypes of HT (it was a single, homogeneous type). We got maximum (adapted) Silhouette widthand ARI values of 1, 0.83, 0.79, and 0.42, when unlabeling the HT, CB, LB, and MA types, respectively,confirming the quality of the formed cluster solutions. The subtypes identified when unlabeling a singletype also emerged when unlabeling two types at a time, confirming their validity. Axonal morphometricproperties were more relevant that dendritic ones, with the axonal polar histogram length in the [pi, 2pi) angle interval being particularly useful.Conclusions: The applied semi-supervised clustering method can accurately discriminate among CB, HT, LB, and MA interneuron types while discovering potential subtypes, and is therefore useful for neuronal classification. The discovery of potential subtypes suggests that some of these types are more heteroge-neous that previously thought. Finally, axonal variables seem to be more relevant than dendritic ones fordistinguishing among the CB, HT, LB, and MA interneuron types.
Resumo:
Parte de la investigación biomédica actual se encuentra centrada en el análisis de datos heterogéneos. Estos datos pueden tener distinto origen, estructura, y semántica. Gran cantidad de datos de interés para los investigadores se encuentran en bases de datos públicas, que recogen información de distintas fuentes y la ponen a disposición de la comunidad de forma gratuita. Para homogeneizar estas fuentes de datos públicas con otras de origen privado, existen diversas herramientas y técnicas que permiten automatizar los procesos de homogeneización de datos heterogéneos. El Grupo de Informática Biomédica (GIB) [1] de la Universidad Politécnica de Madrid colabora en el proyecto europeo P-medicine [2], cuya finalidad reside en el desarrollo de una infraestructura que facilite la evolución de los procedimientos médicos actuales hacia la medicina personalizada. Una de las tareas enmarcadas en el proyecto P-medicine que tiene asignado el grupo consiste en elaborar herramientas que ayuden a usuarios en el proceso de integración de datos contenidos en fuentes de información heterogéneas. Algunas de estas fuentes de información son bases de datos públicas de ámbito biomédico contenidas en la plataforma NCBI [3] (National Center for Biotechnology Information). Una de las herramientas que el grupo desarrolla para integrar fuentes de datos es Ontology Annotator. En una de sus fases, la labor del usuario consiste en recuperar información de una base de datos pública y seleccionar de forma manual los resultados relevantes. Para automatizar el proceso de búsqueda y selección de resultados relevantes, por un lado existe un gran interés en conseguir generar consultas que guíen hacia resultados lo más precisos y exactos como sea posible, por otro lado, existe un gran interés en extraer información relevante de elevadas cantidades de documentos, lo cual requiere de sistemas que analicen y ponderen los datos que caracterizan a los mismos. En el campo informático de la inteligencia artificial, dentro de la rama de la recuperación de la información, existen diversos estudios acerca de la expansión de consultas a partir de retroalimentación relevante que podrían ser de gran utilidad para dar solución a la cuestión. Estos estudios se centran en técnicas para reformular o expandir la consulta inicial utilizando como realimentación los resultados que en una primera instancia fueron relevantes para el usuario, de forma que el nuevo conjunto de resultados tenga mayor proximidad con los que el usuario realmente desea. El objetivo de este trabajo de fin de grado consiste en el estudio, implementación y experimentación de métodos que automaticen el proceso de extracción de información trascendente de documentos, utilizándola para expandir o reformular consultas. De esta forma se pretende mejorar la precisión y el ranking de los resultados asociados. Dichos métodos serán integrados en la herramienta Ontology Annotator y enfocados a la fuente de datos de PubMed [4].---ABSTRACT---Part of the current biomedical research is focused on the analysis of heterogeneous data. These data may have different origin, structure and semantics. A big quantity of interesting data is contained in public databases which gather information from different sources and make it open and free to be used by the community. In order to homogenize thise sources of public data with others which origin is private, there are some tools and techniques that allow automating the processes of integration heterogeneous data. The biomedical informatics group of the Universidad Politécnica de Madrid cooperates with the European project P-medicine which main purpose is to create an infrastructure and models to facilitate the transition from current medical practice to personalized medicine. One of the tasks of the project that the group is in charge of consists on the development of tools that will help users in the process of integrating data from diverse sources. Some of the sources are biomedical public data bases from the NCBI platform (National Center for Biotechnology Information). One of the tools in which the group is currently working on for the integration of data sources is called the Ontology Annotator. In this tool there is a phase in which the user has to retrieve information from a public data base and select the relevant data contained in it manually. For automating the process of searching and selecting data on the one hand, there is an interest in automatically generating queries that guide towards the more precise results as possible. On the other hand, there is an interest on retrieve relevant information from large quantities of documents. The solution requires systems that analyze and weigh the data allowing the localization of the relevant items. In the computer science field of the artificial intelligence, in the branch of information retrieval there are diverse studies about the query expansion from relevance feedback that could be used to solve the problem. The main purpose of this studies is to obtain a set of results that is the closer as possible to the information that the user really wants to retrieve. In order to reach this purpose different techniques are used to reformulate or expand the initial query using a feedback the results that where relevant for the user, with this method, the new set of results will have more proximity with the ones that the user really desires. The goal of this final dissertation project consists on the study, implementation and experimentation of methods that automate the process of extraction of relevant information from documents using this information to expand queries. This way, the precision and the ranking of the results associated will be improved. These methods will be integrated in the Ontology Annotator tool and will focus on the PubMed data source.
Resumo:
Tras los distintos análisis diseñados por Jorge Beltrán Luna en el proyecto "Aplicación de Inteligencia de Negocio a la Gestión Educativa" [Beltrán2014] sobre el comportamiento de los alumnos de la Universidad Politécnica de Madrid en las asignaturas cursadas por estos durante el curso 2013-2014, se llegó a la conclusión que se debía desarrollar una aplicación web mediante la cual pudiesen configurarse estos análisis con distintos parámetros para adecuarlos a los requerimientos del usuario. Este proyecto ha cumplido con el objetivo anteriormente mencionado. Se ha desarrollado una aplicación web capaz de mostrar por medio de un navegador web, las gráficas y tablas generadas por el programa de minería de datos. Mediante esta aplicación el usuario puede realizar diversas funciones. Una de ellas es la de solicitar mediante el formulario recibido en la interfaz principal de la aplicación, la visualización de los resultados generados por el sistema de acuerdo con los parámetros seleccionados por el diseñador de los análisis. El usuario conseguirá observar los resultados que obtendría si ejecutase directamente los análisis desarrollados en el proyecto de Jorge Beltrán Luna [Beltrán2014] en la herramienta Rapidminer. Otra de las funciones que podría realizar el usuario sería la de realizar estos mismos análisis pero modificando sus parámetros de configuración para adecuar dichos análisis a los resultados que se quiere obtener. El resultado será el que se habría conseguido en la aplicación Rapidminer si se cambiasen los mismos parámetros que los modificados en la página web de este prototipo. Por último, se ha diseñado un botón con el cual el usuario podrá recuperar el último análisis realizado, con el fin de que no sea necesario esperar el tiempo que tarde en realizarse el análisis para visualizar los resultados. También se ha realizado una explicación detallada de la aplicación de la inteligencia de negocio en el ámbito educacional. ABSTRACT. After different analysis designed by Jorge Beltran Luna in the "Aplicación de Inteligencia de Negocio a la Gestión Educativa" [Beltrán2014] project on the behaviour of the students at the Universidad Politécnica de Madrid during the course 2013-14, the tutor of this project concluded that it should be interesting to develop a web application through which teachers could view and configure these analysis with different parameters. This project has fulfilled the aforementioned objective. A web application has been develop to show through a web browser, the graphs and charts generated by the data mining tool. Using this application, the user can perform various features. One of this features is to request, employing the formulary received in the main interface, to display an analysis according to the chosen parameters. The user will see the results that would be observed in case that the analysis had been directly executed using the project designed by Jorge Beltrán Luna [Beltrán2014] in the RapidMiner tool. Another feature that the user could perform would be to make these analysis modifying its settings Similar result would be obtained in the RapidMiner tool in the case that identical modifications were carried out in the configuration parameters. Finally, a button to allow with recall the last analysis has been implemented. It is not necessary to wait for the execution of this analysis to see newly the results. A detailed explanation on the usage of business intelligence in the educational field has also been performed.
Resumo:
O presente trabalho propõe um processo para auxiliar a tarefa de implantação de controles de Cadeia Logística Segura para a importação e exportação de cargas conteinerizadas, transportadas pelo modal rodoviário. Está em consonância com a legislação brasileira atual, no que se refere à Receita Federal do Brasil e demais Órgãos Anuentes. Além disso, inclui, também, as novas diretrizes do Programa Brasileiro de Operador Econômico Autorizado que teve seu início na primeira quinzena de Dezembro de 2014, bem como os aspectos principais do quadro SAFE, da Organização Mundial das Aduanas (OMA) e do programa americano Customs-Trade Partnership Against Terrorism (C-TPAT). O processo proposto no trabalho contempla a instrumentação dos controles e seus principais pontos de integração de dados, estágio em que grande parte dos operadores econômicos atuais se encontra. A proposta justifica-se pela complexidade dos processos de cadeias logísticas, sua importância para o comércio exterior e, portanto, para a economia do país, que exigem um aperfeiçoamento constante para atender à competitividade crescente dos mercados, controlar e gerenciar riscos e incertezas dos tempos da globalização. A metodologia do trabalho de pesquisa constou de estudos sobre o significado de cadeia logística segura, legislações e normatizações existentes, principais tecnologias utilizadas no Brasil e no mundo e suas estratégias de integração de sistemas, com enfoque em alguns projetos de gestão já existentes no país. O porto de Santos foi tomado como campo principal de pesquisa. O trabalho evidenciou a importância da presença de três características fundamentais em um processo de cadeia logística segura: ser instrumentado, integrado e inteligente. Considera-se que, a partir do processo proposto, será possível aumentar o grau de inteligência de uma cadeia logística, de forma a gerenciar e mitigar os potenciais riscos de forma mais racional.
Resumo:
La finalidad del presente trabajo es analizar las relaciones existentes entre la competencia social y la inteligencia emocional en estudiantes de Educación Secundaria Obligatoria. Así mismo, también nos proponemos analizar el papel de la empatía y sus relaciones con la competencia social y la inteligencia emocional, ya que en la mayoría de los estudios existentes aparece relacionada de un modo u otro con estos constructos. Los participantes en nuestro estudio fueron 110 estudiantes de primer ciclo de ESO. Los instrumentos empleados fueron: el test EQ-i:YV de BarOn (1997), el Cuestionario Matson de habilidades sociales para adolescentes (Matson, Rotatori, y Helsel, 1983) y el Interpersonal Reactivity Index, IRI (Davis, 1983). Las técnicas de análisis de datos incluyen: análisis de correlación, análisis de regresión múltiple paso a paso y análisis de regresión múltiple de tipo jerárquico. Los resultados obtenidos nos permiten identificar un conjunto de variables que están directamente implicadas en la Competencia social.
Resumo:
Estudo de caso (metodologia qualitativa) realizado em 2013sobre inteligência emocional em alunos portugueses, frequentando 1.º ciclo educação básica, com idades de 6-7 anos de 2 escolas urbanas:2 crianças (M=microcefalia, A=autismo atípico); 2 crianças (N= criança normal, H= perturbação de hiperatividade com défice de atenção). Os objetivos pretenderam: Demonstrar a importância das emoções na aprendizagem; identificar e lidar com as emoções em situações; propor estratégias para cada criança, aquando dos resultados obtidos com aplicação do teste projetivo e utilização material didático. Metodologia: atividades com ―Uma caixa cheia de emoções‟; prova projetiva ―Era uma vez…‖ Teresa Fagulha; ficha de anamnese aos pais; análise documental aos processos; observação participante; notas de campo e triangulação. Os resultados permitiram estabelecer estratégias para diminuir os fatores de distratibilidade, facilitar a atenção com material visualmente atrativo e manuseável e fornecer instruções acompanhadas de observação. Houve dificuldades nos sujeitos em identificar a ‘ira’ e ‘raiva‘.
Resumo:
At head of title, Nov. 1912-Dec. 1922: International Institute of Agriculture. Bureau of Economic and Social Intelligence.
Resumo:
Esta tese trata da comunicação como instrumento de inteligência empresarial numa instituição de ensino superior. Ela pretende demonstrar que a comunicação agrega vantagem competitiva às organizações que atuam no mercado educacional. O presente trabalho se fundamenta em referenciais teóricos das ciências da Comunicação e de Planejamento Estratégico, e seus procedimentos metodológicos incluem, além de revisão bibliográfica extensiva e análise de documentos, a técnica da observação participante, com o acompanhamento das atividades do grupo de trabalho intitulado Comunicação e Integração entre os anos 2003 e 2005, que integrava o Planejamento Estratégico da UMESP Universidade Metodista de São Paulo. Ao final do trabalho, buscou-se mapear as condições necessárias para que a comunicação se constitua efetivamente num processo de inteligência empresarial, incorporando-se à gestão estratégica das organizações. Admitimos que a Comunicação Empresarial ainda tem de vencer alguns desafios e que eles, necessariamente, não são fáceis de serem superados. É necessário considerar sempre que a Comunicação Empresarial não flui no vazio, não se realiza à margem das organizações, mas está umbilicalmente associada a um particular sistema de gestão, a uma específica cultura organizacional e que é expressão, portanto, de uma realidade concreta. Para que a Comunicação Empresarial seja assumida como estratégica, essa condição deverá ser favorecida pela gestão, pela cultura e mesmo pela alocação adequada de recursos (humanos, tecnológicos e financeiros), pois sem os quais ela não se realiza. Logo, se estes pressupostos não estiverem devidamente satisfeitos, será prematuro concluir pelo caráter estratégico da Comunicação Empresarial. Mais ainda: a comunicação não será estratégica em função unicamente do trabalho mais ou menos competente dos profissionais de comunicação. Há exigências outras que, infelizmente, fogem ao seu controle. Em resumo, nesse trabalho são analisadas três questões centrais. A primeira delas diz respeito ao conceito de estratégia. A segunda refere-se ao chamado ethos organizacional em que se insere a prática comunicacional. Finalmente, são examinadas as condições básicas para que a comunicação estratégica realmente prevaleça.
Resumo:
Estudos em ambiente laboral acerca do comportamento humano e saúde no trabalho, bem como a melhor forma de se aplicar as competências e habilidades do trabalhador, vêm ganhando maior corpo devido à crescente busca por melhores resultados organizacionais, ao aumento da competitividade no mercado e à necessidade empresarial de atingir melhor desempenho de suas equipes. Gestores procuram por recursos e inovações a fim de tornar possível o alcance das metas organizacionais. Empregados mais capacitados, satisfeitos e envolvidos com seu trabalho são também aqueles que têm maior comprometimento afetivo com a organização. Para a empresa, isto pode significar um aumento da produtividade, o rebaixamento do número de absenteísmo e turnover. A dimensão saúde no trabalho ganha relevância porque bem-estar no trabalho significa também empregado mais feliz, com menor probabilidade de adoecimento físico, psíquico ou moral, reduzindo custos relativos à restituição da saúde do trabalhador. Por outro lado, estudo realizado sobre a inteligência emocional em gestores sugere que pessoas com alto nível deste tipo de inteligência são capazes de ter relacionamentos mais profundos e constituir uma rede social mais segura, ajudar os outros de seu grupo, bem como desenvolver uma liderança onde se possa construir uma equipe coesa e uma comunicação mais efetiva com os outros e levar a cabo planos estratégicos empresariais com mais eficiência. Este estudo teve como objetivo geral analisar as relações entre as habilidades da inteligência emocional e as dimensões de bem-estar no trabalho. A pesquisa foi realizada em uma empresa do setor de plásticos e metalurgia, em uma amostra constituída por 386 participantes dos sexos masculino e feminino, com faixa etária entre 18 e 58 anos. Foi utilizado para a coleta de dados um questionário composto de quatro escalas que mediram os três componentes de bem-estar no trabalho e as habilidades da inteligência emocional. Os resultados do estudo revelaram que apenas três habilidades da inteligência emocional tiveram correlações significativas com as dimensões de bem-estar no trabalho: empatia, sociabilidade e automotivação. Foram observadas correlações mais significativas entre sociabilidade e bem-estar no trabalho. Portanto, o bem-estar no trabalho parece associar-se às habilidades intelectuais e emocionais dos trabalhadores de serem empáticos, manterem-se automotivados e, especialmente, de estabelecerem e conservarem suas amizades (sociabilidade)