940 resultados para Human-computer-interaction


Relevância:

30.00% 30.00%

Publicador:

Resumo:

Les milieux de travail canadiens présentent des visages diversifiés et en pleine mutation. En raison de facteurs tels que les nouvelles technologies, la mondialisation, l’économie du savoir ou encore l’évolution démographique, la transformation des entreprises canadiennes passe par une main-d’œuvre qualifiée, adaptable et de qualité. Notre recherche s’inscrit dans le cadre des études s’intéressant aux comportements des entreprises en matière d’investissement en capital humain au Canada. Nous avons retenu un cadre théorique qui est constitué principalement de la théorie du capital humain, de celle des ressources internes et de l’approche des coûts et des bénéfices. Pour les fins de notre recherche, nous retenons une approche quantitative longitudinale, en utilisant des données secondaires issues du questionnaire des employeurs de l’Enquête sur le milieu de travail et les employés pour les années 1999 à 2005 inclusivement. La nature longitudinale de l’EMTE permet de corriger pour les biais liés à l’hétérogénéité non observée des firmes et à l’endogénéité possible de la variable de formation. Notre étude se divise globalement en trois articles. Dans les deux premiers cas, les dépenses en formation sont considérées comme une variable explicative de la productivité et du taux de roulement des employés. Dans le troisième cas, les dépenses de formation constituent la variable dépendante à l’étude. Le premier article examine l’effet des investissements en formation sur la productivité des entreprises canadiennes. La littérature scientifique traitant de l’impact de la formation sur la performance des entreprises continue de s’accroître dû aux nouvelles techniques d’estimations, à la disponibilité des données, et à l’intérêt grandissant pour le capital humain. Les résultats partiels des études antérieures montrent la possibilité que les retours des investissements réalisés en formation puissent avoir des effets au-delà de l’année courante. Sur le plan théorique, cette hypothèse a du sens, mais au niveau empirique il semble que les liens formels entre la formation et la productivité des entreprises ne sont pas clairement identifiés. Nos résultats montrent que les investissements en formation réalisés avec trois années de retard engendrent des effets positifs et significatifs sur la productivité à court et à moyen termes. L’interaction entre les différents types d’investissements permet de vérifier l’hypothèse à l’effet que les investissements en capital physique et en capital humain soient complémentaires et se supportent mutuellement. Après avoir procédé à l’estimation de l’effet des dépenses en formation structurée sur la productivité des entreprises, nous nous demandons pour quelles raisons les employeurs demeurent réticents quant aux retours des investissements en formation ? Dans le cadre de cette seconde réflexion, nous nous intéressons à deux dimensions de l’estimation du roulement, à savoir le roulement de nature volontaire et une mesure de l’optimum. Les résultats obtenus quant à l’effet des dépenses en formation structurée par employé sur les taux de roulement volontaire et optimal montrent que la relation est positive dans les deux cas. Cet article vise également à vérifier si différents outils organisationnels associés aux relations industrielles peuvent avoir un effet sur la réduction du taux de roulement volontaire des employés. Nos résultats montrent aussi que la présence syndicale et la perception d’un bon climat de travail traduisent dans un sens, un environnement dans lequel l’employeur et les employés ont des intérêts communs pour la poursuite de mêmes objectifs. Dans le cadre du troisième article, nous examinons certains déterminants des investissements en formation structurée au sein des milieux de travail. Nos résultats montrent qu’une entreprise de grande taille, qui investit davantage en capital physique par employé par rapport à la moyenne, au sein de laquelle un grand pourcentage de travailleurs utilisent un ordinateur, où il y a une proportion élevée de nouvelles embauches et pour laquelle l’employeur introduit un système cohérent de pratiques dépense davantage en formation structurée qu’une entreprise qui ne possède pas ces caractéristiques, toutes choses égales par ailleurs. Ces résultats permettent de discuter également de la complémentarité des facteurs faisant partie d’un cercle vertueux de croissance des entreprises pouvant déterminer les investissements en formation.

Relevância:

30.00% 30.00%

Publicador:

Resumo:

Chez Saccharomyces cerevisiae, les souches mutantes pour Rrd1, une protéine qui possède une activité de peptidyl prolyl cis/trans isomérase, montrent une résistance marquée à la rapamycine et sont sensibles au 4-nitroquinoline 1-oxide, un agent causant des dommages à l’ADN. PTPA, l’homologue de Rrd1 chez les mammifères, est reconnu en tant qu’activateur de protéine phosphatase 2A. Notre laboratoire a précédemment démontré que la surexpression de PTPA mène à l’apoptose de façon indépendante des protéines phosphatase 2A. La fonction moléculaire de Rrd1/PTPA était encore largement inconnue au départ de mon projet de doctorat. Mes recherches ont d’abord montré que Rrd1 est associé à la chromatine ainsi qu’à l’ARN polymérase II. L’analyse in vitro et in vivo par dichroïsme circulaire a révélé que Rrd1 est responsable de changements au niveau de la structure du domaine C-terminal de la grande sous-unité de l’ARN polymérase II, Rpb1, en réponse à la rapamycine et au 4-nitroquinoline 1-oxide. Nous avons également démontré que Rrd1 est requis pour modifier l’occupation de l’ARN polymérase II sur des gènes répondant à un traitement à la rapamycine. Finalement, nous avons montré que suite à un traitement avec la rapamycine, Rrd1 médie la dégradation de l’ARN polymérase II et que ce mécanisme est indépendant de l’ubiquitine. La dernière partie de mon projet était d’acquérir une meilleure connaissance de la fonction de PTPA, l’homologue de Rrd1 chez les mammifères. Nos résultats montrent que le «knockdown» de PTPA n’affecte pas la sensibilité des cellules à différentes drogues telles que la rapamycine, le 4-nitroquinoline 1-oxide ou le peroxyde d’hydrogène (H2O2). Nous avons également tenté d’identifier des partenaires protéiques pour PTPA grâce à la méthode TAP, mais nous ne sommes pas parvenus à identifier de partenaires stables. Nous avons démontré que la surexpression de la protéine PTPA catalytiquement inactive n’induisait pas l’apoptose indiquant que l’activité de PTPA est requise pour produire cet effet. Finalement, nous avons tenté d’étudier PTPA dans un modèle de souris. Dans un premier lieu, nous avons déterminé que PTPA était exprimé surtout au niveau des tissus suivants : la moelle osseuse, le thymus et le cerveau. Nous avons également généré avec succès plusieurs souris chimères dans le but de créer une souris «knockout» pour PTPA, mais l’allèle mutante ne s’est pas transférée au niveau des cellules germinales. Mes résultats ainsi que ceux obtenus par mon laboratoire sur la levure suggèrent un rôle général pour Rrd1 au niveau de la régulation des gènes. La question demeure toujours toutefois à savoir si PTPA peut effectuer un rôle similaire chez les mammifères et une vision différente pour déterminer la fonction de cette protéine sera requise pour adresser adéquatement cette question dans le futur.

Relevância:

30.00% 30.00%

Publicador:

Resumo:

Les EHEC de sérotype O157:H7 sont des agents zoonotiques d’origine alimentaire ou hydrique. Ce sont des pathogènes émergeants qui causent chez l’humain des épidémies de gastro-entérite aiguë et parfois un syndrome hémolytique-urémique. Les EHEC réussissent leur transmission à l’humain à partir de leur portage commensal chez l’animal en passant par l’étape de survie dans l’environnement. L’endosymbiose microbienne est une des stratégies utilisées par les bactéries pathogènes pour survivre dans les environnements aquatiques. Les amibes sont des protozoaires vivants dans divers écosystèmes et connus pour abriter plusieurs agents pathogènes. Ainsi, les amibes contribueraient à transmettre les EHEC à l'humain. La première partie de mon projet de thèse est centrée sur l'interaction de l’amibe Acanthamoeba castellanii avec les EHEC. Les résultats montrent que la présence de cette amibe prolonge la persistance des EHEC, et ces dernières survivent à leur phagocytose par les amibes. Ces résultats démontrent le potentiel réel des amibes à héberger les EHEC et à contribuer à leur transmission. Cependant, l’absence de Shiga toxines améliore leur taux de survie intra-amibe. Par ailleurs, les Shiga toxines sont partiellement responsables de l’intoxication des amibes par les EHEC. Cette implication des Shiga toxines dans le taux de survie intracellulaire et dans la mortalité des amibes démontre l’intérêt d’utiliser les amibes comme modèle d'interaction hôte/pathogène pour étudier la pathogénicité des EHEC. Durant leur cycle de transmission, les EHEC rencontrent des carences en phosphate inorganique (Pi) dans l’environnement. En utilisant conjointement le système à deux composantes (TCS) PhoB-R et le système Pst (transport spécifique de Pi), les EHEC détectent et répondent à cette variation en Pi en activant le régulon Pho. La relation entre la virulence des EHEC, le PhoB-R-Pst et/ou le Pi environnemental demeure inconnue. La seconde partie de mon projet explore le rôle du régulon Pho (répondant à un stress nutritif de limitation en Pi) dans la virulence des EHEC. L’analyse transcriptomique montre que les EHEC répondent à la carence de Pi par une réaction complexe impliquant non seulement un remodelage du métabolisme général, qui est critique pour sa survie, mais aussi en coordonnant sa réponse de virulence. Dans ces conditions le régulateur PhoB contrôle directement l’expression des gènes du LEE et de l’opéron stx2AB. Ceci est confirmé par l’augmentation de la sécrétion de l’effecteur EspB et de la production et sécrétion de Stx2 en carence en Pi. Par ailleurs, l’activation du régulon Pho augmente la formation de biofilm et réduit la motilité chez les EHEC. Ceci corrèle avec l’induction des gènes régulant la production de curli et la répression de la voie de production d’indole et de biosynthèse du flagelle et du PGA (Polymère β-1,6-N-acétyle-D-glucosamine).

Relevância:

30.00% 30.00%

Publicador:

Resumo:

L’objectif de cette thèse par articles est de présenter modestement quelques étapes du parcours qui mènera (on espère) à une solution générale du problème de l’intelligence artificielle. Cette thèse contient quatre articles qui présentent chacun une différente nouvelle méthode d’inférence perceptive en utilisant l’apprentissage machine et, plus particulièrement, les réseaux neuronaux profonds. Chacun de ces documents met en évidence l’utilité de sa méthode proposée dans le cadre d’une tâche de vision par ordinateur. Ces méthodes sont applicables dans un contexte plus général, et dans certains cas elles on tété appliquées ailleurs, mais ceci ne sera pas abordé dans le contexte de cette de thèse. Dans le premier article, nous présentons deux nouveaux algorithmes d’inférence variationelle pour le modèle génératif d’images appelé codage parcimonieux “spike- and-slab” (CPSS). Ces méthodes d’inférence plus rapides nous permettent d’utiliser des modèles CPSS de tailles beaucoup plus grandes qu’auparavant. Nous démontrons qu’elles sont meilleures pour extraire des détecteur de caractéristiques quand très peu d’exemples étiquetés sont disponibles pour l’entraînement. Partant d’un modèle CPSS, nous construisons ensuite une architecture profonde, la machine de Boltzmann profonde partiellement dirigée (MBP-PD). Ce modèle a été conçu de manière à simplifier d’entraînement des machines de Boltzmann profondes qui nécessitent normalement une phase de pré-entraînement glouton pour chaque couche. Ce problème est réglé dans une certaine mesure, mais le coût d’inférence dans le nouveau modèle est relativement trop élevé pour permettre de l’utiliser de manière pratique. Dans le deuxième article, nous revenons au problème d’entraînement joint de machines de Boltzmann profondes. Cette fois, au lieu de changer de famille de modèles, nous introduisons un nouveau critère d’entraînement qui donne naissance aux machines de Boltzmann profondes à multiples prédictions (MBP-MP). Les MBP-MP sont entraînables en une seule étape et ont un meilleur taux de succès en classification que les MBP classiques. Elles s’entraînent aussi avec des méthodes variationelles standard au lieu de nécessiter un classificateur discriminant pour obtenir un bon taux de succès en classification. Par contre, un des inconvénients de tels modèles est leur incapacité de générer deséchantillons, mais ceci n’est pas trop grave puisque la performance de classification des machines de Boltzmann profondes n’est plus une priorité étant donné les dernières avancées en apprentissage supervisé. Malgré cela, les MBP-MP demeurent intéressantes parce qu’elles sont capable d’accomplir certaines tâches que des modèles purement supervisés ne peuvent pas faire, telles que celle de classifier des données incomplètes ou encore celle de combler intelligemment l’information manquante dans ces données incomplètes. Le travail présenté dans cette thèse s’est déroulé au milieu d’une période de transformations importantes du domaine de l’apprentissage à réseaux neuronaux profonds qui a été déclenchée par la découverte de l’algorithme de “dropout” par Geoffrey Hinton. Dropout rend possible un entraînement purement supervisé d’architectures de propagation unidirectionnel sans être exposé au danger de sur- entraînement. Le troisième article présenté dans cette thèse introduit une nouvelle fonction d’activation spécialement con ̧cue pour aller avec l’algorithme de Dropout. Cette fonction d’activation, appelée maxout, permet l’utilisation de aggrégation multi-canal dans un contexte d’apprentissage purement supervisé. Nous démontrons comment plusieurs tâches de reconnaissance d’objets sont mieux accomplies par l’utilisation de maxout. Pour terminer, sont présentons un vrai cas d’utilisation dans l’industrie pour la transcription d’adresses de maisons à plusieurs chiffres. En combinant maxout avec une nouvelle sorte de couche de sortie pour des réseaux neuronaux de convolution, nous démontrons qu’il est possible d’atteindre un taux de succès comparable à celui des humains sur un ensemble de données coriace constitué de photos prises par les voitures de Google. Ce système a été déployé avec succès chez Google pour lire environ cent million d’adresses de maisons.

Relevância:

30.00% 30.00%

Publicador:

Resumo:

La réparation par excision de nucléotides (NER) permet l'élimination des lésions provoquant une distorsion de la double hélice de l’ADN. Ces lésions sont induites par plusieurs agents environnementaux comme les rayons UV, ainsi que par certaines drogues chimio- thérapeutiques tel que le cisplatine. Des défauts dans la NER conduisent à de rares maladies autosomiques héréditaires : La xérodermie pigmentaire (XP), le syndrome de Cockayne (CS), le syndrome de sensibilité aux UVSS et la trichothiodystrophie (TTD). Ces maladies sont associées soit à une prédisposition élevée au cancer de la peau et / ou à de graves anomalies du développement neurologique. Le groupe de patients XP-A représente le deuxième groupe (XP) le plus fréquent, et possède la forme la plus sévère combinant cancer de la peau avec un haut risque de dégénérescence neurologique. À date, aucune explication n`a été proposée pour les symptômes neurologiques observés chez ces patients. Nous avions suggéré ainsi que la protéine XPA possède d`autres fonctions dans d`autres processus cellulaires, ceci en interagissant avec des partenaires protéiques différents de ceux déjà connus. Afin de confirmer cette hypothèse nous avions réalisé une étude protéomique à grande échelle en combinant la spectrométrie de masse à une immunoprécipitation en Tandem d`affinité (TAP), afin d`identifier de nouvelles protéines interagissant directement avec XPA. Nous avions montré que XPA peut interagir avec MRE11, la protéine clé de la réparation par recombinaison homologue. Des études additionnelles sont requises pour confirmer cette interaction et comprendre sa fonction

Relevância:

30.00% 30.00%

Publicador:

Resumo:

Neuroscience is the study of'tbe ne rvous system , including the i - ; . in, spinal cord and peripheral nerves . Neurons are the basic cells of the brain and nervous system which exerts its functional role through various neurotransmitters and receptor systems . The activity of a nen ren depends on the balance between the number of excitatory and inhibito r y processes affecting it, both processes occurring individually and sin ,tlte-' ,ieously. The functional bal,ince of different neurotransmitters such as Acct >>lcholine (Ach), Dopamine (DA), Serotonin (5-1-17), Nor epinepbri,te (N.1 j, Epinephrine (LPI), Glutamate and Gamma amino butyric acid (GA BA) regulates the growth , division and other vital functions ofa normal cell / organisin (Sudha, 1 998). The micro-environ ; nertt of the cell is controlled / the macro-environment that surrounds the individual. Any change in the cell environment causes imbalance in cell homeostasis and f,ntction. Pollution is a significant cause of imbalance caused iii the inacYcenvironment. Interaction with polluted environments can have an adverse impact on the health of humans. The alarming rise in enviromilmieil cont.iniin :rtion has been linked to rises in levels of pesticides, ndltstr al effluents, domestic Waste, car exhausts and other anthropogenic activities. Persistent exposures to contaminant cause a negative imp,-, on brain health and development . Pollution also causes a change in the neurotransmitters and their receptor function leading to earl.;' recurrence of neurodcge,terative disorders such as flypoxia , Alzbeimers's and Huntington 's disease early in life.

Relevância:

30.00% 30.00%

Publicador:

Resumo:

Ontologies have been established for knowledge sharing and are widely used as a means for conceptually structuring domains of interest. With the growing usage of ontologies, the problem of overlapping knowledge in a common domain becomes critical. In this short paper, we address two methods for merging ontologies based on Formal Concept Analysis: FCA-Merge and ONTEX. --- FCA-Merge is a method for merging ontologies following a bottom-up approach which offers a structural description of the merging process. The method is guided by application-specific instances of the given source ontologies. We apply techniques from natural language processing and formal concept analysis to derive a lattice of concepts as a structural result of FCA-Merge. The generated result is then explored and transformed into the merged ontology with human interaction. --- ONTEX is a method for systematically structuring the top-down level of ontologies. It is based on an interactive, top-down- knowledge acquisition process, which assures that the knowledge engineer considers all possible cases while avoiding redundant acquisition. The method is suited especially for creating/merging the top part(s) of the ontologies, where high accuracy is required, and for supporting the merging of two (or more) ontologies on that level.

Relevância:

30.00% 30.00%

Publicador:

Resumo:

A method is presented for the visual analysis of objects by computer. It is particularly well suited for opaque objects with smoothly curved surfaces. The method extracts information about the object's surface properties, including measures of its specularity, texture, and regularity. It also aids in determining the object's shape. The application of this method to a simple recognition task ??e recognition of fruit ?? discussed. The results on a more complex smoothly curved object, a human face, are also considered.

Relevância:

30.00% 30.00%

Publicador:

Resumo:

As AI has begun to reach out beyond its symbolic, objectivist roots into the embodied, experientialist realm, many projects are exploring different aspects of creating machines which interact with and respond to the world as humans do. Techniques for visual processing, object recognition, emotional response, gesture production and recognition, etc., are necessary components of a complete humanoid robot. However, most projects invariably concentrate on developing a few of these individual components, neglecting the issue of how all of these pieces would eventually fit together. The focus of the work in this dissertation is on creating a framework into which such specific competencies can be embedded, in a way that they can interact with each other and build layers of new functionality. To be of any practical value, such a framework must satisfy the real-world constraints of functioning in real-time with noisy sensors and actuators. The humanoid robot Cog provides an unapologetically adequate platform from which to take on such a challenge. This work makes three contributions to embodied AI. First, it offers a general-purpose architecture for developing behavior-based systems distributed over networks of PC's. Second, it provides a motor-control system that simulates several biological features which impact the development of motor behavior. Third, it develops a framework for a system which enables a robot to learn new behaviors via interacting with itself and the outside world. A few basic functional modules are built into this framework, enough to demonstrate the robot learning some very simple behaviors taught by a human trainer. A primary motivation for this project is the notion that it is practically impossible to build an "intelligent" machine unless it is designed partly to build itself. This work is a proof-of-concept of such an approach to integrating multiple perceptual and motor systems into a complete learning agent.

Relevância:

30.00% 30.00%

Publicador:

Resumo:

The main objective of this paper aims at developing a methodology that takes into account the human factor extracted from the data base used by the recommender systems, and which allow to resolve the specific problems of prediction and recommendation. In this work, we propose to extract the user's human values scale from the data base of the users, to improve their suitability in open environments, such as the recommender systems. For this purpose, the methodology is applied with the data of the user after interacting with the system. The methodology is exemplified with a case study

Relevância:

30.00% 30.00%

Publicador:

Resumo:

El proceso administrativo y de compras de OPL Carga tiene algunas falencias entre ellas: fallas en la Comunicación entre el personal operativo, no se realizan llamadas internas usando con frecuencia el email, produciendo la saturación de solicitudes las cuales terminan sin ser resueltas en cuanto a roles se refiere, no hay enfoque de procesos en vista que no se tiene claras las tareas de cada cargo, adicionalmente no hay claridad en los subprocesos, perjudicando el proceso con el aumento de costos, pérdida de tiempo, las responsabilidades de los funcionario no todas las veces se ejecutan en el tiempo asignado, el liderazgo compartido presenta ambigüedades. Objetivos: Definir el trabajo en equipo en el proceso administrativo y de compras en OPL carga de Bucaramanga. La investigación que a realizar es de tipo descriptivo, busca descubrir las falencias o características que permiten diseñar y desarrollar un modelo de solución para los problemas del equipo de OPL Carga S.A.S. Materiales y métodos: La investigación efectuada es de tipo descriptivo, el objetivo es definir el modelo del trabajo en equipo y describir las falencias en el proceso administrativo y de compras en OPL carga de Bucaramanga, que permitan obtener un diagnóstico integral que conlleve a la implementación de estrategias de solución. Resultados: Se identificaron las falencias en los siguientes aspectos: Variable comunicación, rendimiento, destrezas complementarias, propósito significativo y meta específicas de los funcionarios en OPL carga sección administrativa. Conclusiones: El modelo de trabajo en equipo que OPL aplica es jerárquico, en el que se ofrece estabilidad, seguridad, se toman decisiones en forma piramidal, mediante la planeación de tareas, la colaboración, igualdad y respeto por los miembros, trabajando en pro de la solución de problemas. Se construyó un plano conceptual que permitió exponer la interpretación que la estudiante tiene de las teorías, investigaciones y antecedentes válidos para la comprensión del problema investigado. Área comunicacional: Coordinar acciones tendientes para que los funcionarios respondan a tiempo los emails atenientes a su trabajo. Área condiciones de trabajo: Clarificar y diseñar las reglas de comportamiento al interior de los equipos de trabajo que redunden en el mejoramiento del mismo y la búsqueda de soluciones oportunas. Área metas específicas: Procurar mediante auditorías el cumplimiento de las metas y objetivos propuestos por cada equipo de trabajo.

Relevância:

30.00% 30.00%

Publicador:

Resumo:

Se realizó un estudio genético – poblacional en dos grupos etarios de población colombiana con la finalidad de evaluar las diferencias genéticas relacionadas con el polimorfismo MTHFR 677CT en busca de eventos genéticos que soporten la persistencia de este polimorfismo en la especie humana debido que este ha sido asociado con múltiples enfermedades. De esta manera se genotipificaron los individuos, se analizaron los genotipos, frecuencias alélicas y se realizaron diferentes pruebas genéticas-poblacionales. Contrario a lo observado en poblaciones Colombianas revisadas se identificó la ausencia del Equilibrio Hardy-Weinberg en el grupo de los niños y estructuras poblacionales entre los adultos lo que sugiere diferentes historias demográficas y culturales entre estos dos grupos poblacionales al tiempo, lo que soporta la hipótesis de un evento de selección sobre el polimorfismo en nuestra población. De igual manera nuestros datos fueron analizados junto con estudios previos a nivel nacional y mundial lo cual sustenta que el posible evento selectivo es debido a que el aporte de ácido fólico se ha incrementado durante las últimas dos décadas como consecuencia de las campañas de fortificación de las harinas y suplementación a las embarazadas con ácido fólico, por lo tanto aquí se propone un modelo de selección que se ajusta a los datos encontrados en este trabajo se establece una relación entre los patrones nutricionales de la especie humana a través de la historia que explica las diferencias en frecuencias de este polimorfismo a nivel espacial y temporal.  

Relevância:

30.00% 30.00%

Publicador:

Resumo:

How do resource booms affect human capital accumulation? We exploit time and spatial variation generated by the commodity boom across local governments in Peru to measure the effect of natural resources on human capital formation. We explore the effect of both mining production and tax revenues on test scores, finding a substantial and statistically significant effect for the latter. Transfers to local governments from mining tax revenues are linked to an increase in math test scores of around 0.23 standard deviations. We find that the hiring of permanent teachers as well as the increases in parental employment and improvements in health outcomes of adults and children are plausible mechanisms for such large effect on learning. These findings suggest that redistributive policies could facilitate the accumulation of human capital in resource abundant developing countries as a way to avoid the natural resources curse.

Relevância:

30.00% 30.00%

Publicador:

Resumo:

O bom funcionamento de uma empresa passa pela coordenação dos seus vários elementos, pela fluidez das suas operações diárias, pelo desempenho dos seus recursos, tanto humanos como materiais, e da interacção dos vários sistemas que a compõem. As tecnologias empresariais sentiram um desenvolvimento contínuo após a sua aparição, desde o processo básico, para gestão de processos de negócios (BPM), para plataformas de recursos empresariais (ERP) modernos como o sistema proprietário SAP ou Oracle, para conceitos mais gerais como SOA e cloud, baseados em standards abertos. As novas tecnologias apresentam novos canais de trânsito de informação mais rápidos e eficientes, formas de automatizar e acompanhar processos de negócio e vários tipos de infra-estruturas que podem ser utilizadas de forma a tornar a empresa mais produtiva e flexível. As soluções comerciais existentes permitem realizar estes objectivos mas os seus custos de aquisição podem revelar-se demasiado elevados para algumas empresas ou organizações, que arriscam de não se adaptar às mudanças do negócio. Ao mesmo tempo, software livre está a ganhar popularidade mas existem sempre alguns preconceitos sobre a qualidade e maturidade deste tipo de software. O objectivo deste trabalho é apresentar SOA, os principais produtos SOA comerciais e open source e realizar uma comparação entre as duas categorias para verificar o nível de maturidade do SOA open source em relação às soluções SOA proprietárias.

Relevância:

30.00% 30.00%

Publicador:

Resumo:

In an immersive virtual environment, observers fail to notice the expansion of a room around them and consequently make gross errors when comparing the size of objects. This result is difficult to explain if the visual system continuously generates a 3-D model of the scene based on known baseline information from interocular separation or proprioception as the observer walks. An alternative is that observers use view-based methods to guide their actions and to represent the spatial layout of the scene. In this case, they may have an expectation of the images they will receive but be insensitive to the rate at which images arrive as they walk. We describe the way in which the eye movement strategy of animals simplifies motion processing if their goal is to move towards a desired image and discuss dorsal and ventral stream processing of moving images in that context. Although many questions about view-based approaches to scene representation remain unanswered, the solutions are likely to be highly relevant to understanding biological 3-D vision.