998 resultados para Pessoas – Rastreamento automático


Relevância:

20.00% 20.00%

Publicador:

Resumo:

Las presas bóveda constituyen uno de los tipos estructurales más interesantes desde el punto de vista del diseño ingenieril. Se presenta a continuación un método de cálculo mediante ordenador que permite definir genéticamente la bóveda, es decir, la forma de su superficie media, representada por una expresión analítica o numérica y por la ley de espesores, analizándose tensionalmente la forma obtenida

Relevância:

20.00% 20.00%

Publicador:

Resumo:

En este proyecto se han analizado distintas imágenes de fragmentos de rocas de distintas granulometrías correspondientes a una serie de voladuras de una misma cantera. Cada una de las voladuras se componen de 20 imágenes. A posteriori utilizando el programa Split Desktop en su versión 3.1, se delimitaron los fragmentos de roca de los que está compuesta la imagen, obteniéndose posteriormente la curva granulométrica correspondiente a dicha imagen. Una vez se calculan las curvas granulométricas correspondientes a cada imagen, se calcula la curva media de todas ellas, pudiéndose considerar por tanto la curva media de cada voladura. Se han utilizado las distintas soluciones del software, manual, online y automático, para realizar los análisis de dichas imágenes y a posteriori comparar sus resultados. Dichos resultados se muestran a través de una serie de gráficos y tablas que se explican con detalle para la comprensión del estudio. De dichos resultados es posible afirmar que, el tratamiento de imágenes realizado de manera online y automático por Split, desemboca en el mismo resultado, al no haber una diferencia estadística significativa. Por el contrario, el sistema manual es diferente de los otros dos, no pudiéndose afirmar cual es mejor de los dos. El manual depende del operario que trabaje las imágenes y el online de los ajustes realizados y por tanto, ambos tienen ciertas incertidumbres difíciles de solucionar. Abstract In this project, different images of rock fragments of different grain sizes corresponding to a series of blasts from the same quarry have been analyzed. To study each blast, 20 images has been used and studied with the software Split Desktop 3.1. Rock fragments from each image has been delimitated with the software, obtaining a grading curve of each one. Once these curves are calculated, the mean curve of these data set is obtained and can be considered the mean curve of each blast. Different software solutions as manual, online and automatic, has been used for the analysis of these images. Then the results has been compared between them. These results are shown through a series of graphs and tables, that are explained in detail, to enhance the understanding of the study. From these results, it can be said that the image processing with online and automatic options from Split, leads to the same result, after an statistical study. On the contrary, the manual Split mode is different from the others; however is not possible to assert what will be the best. The manual Split mode depends on the operator ability and dedication, although the online mode depends on the software settings, so therefore, both have some uncertainties that are difficult to solve.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

En los vocabularios biomédicos actuales más utilizados, suelen existir mecanismos de composición de términos a partir de términos pre-existentes. Estos mecanismos de composición aumentan la potencia de los lenguajes que los poseen pero parten con la desventaja de la posibilidad de representar un mismo concepto con diferentes conceptos base, lo que incluye un componente de ambigüedad en los mismos. Este trabajo de fin de grado consiste en la realización de una herramienta que permita reconocer términos de estos vocabularios biomédicos complejos, es decir, vocabularios con términos compuestos por otros términos como puede ser el caso de SNOMED. Con la consecución de este proyecto, obtendremos una herramienta capaz de identificar las ambigüedades presentes en la representación de estos conceptos compuestos y representar de una forma homogénea dichos conceptos. Para favorecer la interoperabilidad y accesibilidad de la herramienta se ha decidido ofrecerla mediante una interfaz web accesible desde cualquier dispositivo o lugar con acceso a internet. ---ABSTRACT---In the latest and most used biomedical languages, we usually and term composition operations from existing terms. These mechanisms increase the utility of those terminologies they belong to. Despite this, these operations present a disadvantage, that is, the possibility of representing the same concept with diferent base concepts which introduces a certain degree of ambiguity in those complex terms. The objective of this final degree project consists in developing a tool that allows recognizing terms from those complex biomedical vocabularies, that is, terminologies with terms comprised of simpler terms such as SNOMED. By completing this project, we obtained a tool capable of identifying the present ambiguities in the representation of those composite concepts and represent them in a homogenous format. To facilitate the interoperability and accessibility of the tool it was decided to other it through a web interface loadable from any place or device with access to the internet.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

El Grupo de Diseño Electrónico y Microelectrónico de la Universidad Politécnica de Madrid -GDEM- se dedica, entre otras cosas, al estudio y mejora del consumo en sistemas empotrados. Es en este lugar y sobre este tema donde el proyecto a exponer ha tomado forma y desarrollo. Según un artículo de la revista online Revista de Electrónica Embebida, un sistema empotrado o embebido es aquel “sistema controlado por un microprocesador y que gracias a la programación que incorpora o que se le debe incorporar, realiza una función específica para la que ha sido diseñado, integrando en su interior la mayoría de los elementos necesarios para realizar dicho función”. El porqué de estudiar sobre este tema responde a que, cada vez, hay mayor presencia de sistemas empotrados en nuestra vida cotidiana. Esto es debido a que se está tendiendo a dotar de “inteligencia” a todo lo que puedan hacer nuestra vida un poco más fácil. Nos podemos encontrar dichos sistemas en fábricas, oficinas de atención a los ciudadanos, sistemas de seguridad de hogar, relojes, móviles, lavadoras, hornos, aspiradores y un largo etcétera en cualquier aparato que nos podamos imaginar. A pesar de sus grandes ventajas, aún hay grandes inconvenientes. El mayor problema que supone a día de hoy es la autonomía del mismo sistema, ya que hablamos de aparatos que muchas veces están alimentados por baterías -para ayudar a su portabilidad. Por esto, se está intentando dotar a dichos sistemas de una capacidad de ahorro de energía y toma de decisiones que podrían ayudar a duplicar la autonomía de dicha batería. Un ejemplo claro son los Smartphones de hoy en día, unos aparatos casi indispensables que pueden tener una autonomía de un día. Esto es poco práctico para el usuario en caso de viajes, trabajo u otras situaciones en las que se le dé mucho uso y no pueda tener acceso a una red eléctrica. Es por esto que surge la necesidad de investigar, sin necesidad de mejorar el hardware del sistema, una manera de mejorar esta situación. Este proyecto trabajará en esa línea creando un sistema automático de medida el cual generará las corrientes que servirán como entrada para verificar el sistema de adquisición que junto con la tarjeta Beagle Board permitirá la toma de decisiones en relación con el consumo de energía. Para realizar este sistema, nos ayudaremos de diferentes herramientas que podremos encontrar en el laboratorio del GDEM, como la fuente de alimentación Agilent y la Beagle Board como principales herramientas de trabajo- . El objetivo principal será la simulación de unas señales que, después de pasar un proceso de conversión y tratado, harán la función de representación del consumo de cada una de las partes que pueden formar un sistema empotrado genérico. Por lo tanto, podemos decir que el sistema hará la funcionalidad de un banco de pruebas que ayudará a simular dicho consumo para que el microprocesador del sistema pueda llegar a tomar alguna decisión. ABSTRACT. The Electronic and Microelectronic Design Group of Universidad Politécnica de Madrid -GDEM- is in charge, between other issues, of improving the embedded system’s consumption. It is in this place and about this subject where the exposed project has taken shape and development. According to an article from de online magazine Revista de Electronica Embebida, an embedded system is “the one controlled by a microprocessor and, thanks to the programing that it includes, it carries out a specific function what it has been designed for, being integrated in it the most necessary elements for realizing the already said function”. The because of studying this subject, answers that each time there is more presence of the embedded system in our daily life. This is due to the tendency of providing “intelligence” to all what can make our lives easier. We can find this kind of systems in factories, offices, security systems, watchers, mobile phones, washing machines, ovens, hoovers and, definitely, in all kind of machines what we can think of. Despite its large vantages, there are still some inconveniences. Nowadays, the most important problem is the autonomy of the system itself when machines that have to be supplied by batteries making easier the portability-. Therefore, this project is going after a save capacity of energy for the system as well as being able to take decisions in order to duplicate batteries’ autonomy. Smartphones are a clear example. They are a very successful product but the autonomy is just one day. This is not practical for users, at all, if they have to travel, to work or to do any activity that involves a huge use of the phone without a socket nearby. That is why the need of investigating a way to improve this situation. This project is working on this line, creating an automatic system that will generate the currents for verifying the acquisition system that, with the beagle board, will help taking decisions regarding the energy’s consumption. To carry out this system, we need different tools that we can find in the laboratory of the group previously mentioned, like power supply Agilent and the Beagle Board as main working tools . The main goal is the simulation of some signals that, after a conversion process, will represent de consumption of each of the parts in the embedded generic system. Therefore, the system will be a testing ground that simulate the consumption, once sent to the processor, to be processed and so the microprocessor system might take some decision.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

El siguiente trabajo abarca todo el proceso llevado a cabo para el rediseño de un sistema automático de tutoría que se integra con laboratorios virtuales desarrollados para la realización de prácticas por parte de estudiantes dentro de entornos virtuales tridimensionales. Los principales objetivos de este rediseño son la mejora del rendimiento del sistema automático de tutoría, haciéndolo más eficiente y por tanto permitiendo a un mayor número de estudiantes realizar una práctica al mismo tiempo. Además, este rediseño permitirá que el tutor se pueda integrar con otros motores gráficos con un coste relativamente bajo. Se realiza en primer lugar una introducción a los principales conceptos manejados en este trabajo así como algunos aspectos relacionados con trabajos previos a este rediseño del tutor automático, concretamente la versión anterior del tutor ligada a la plataforma OpenSim. Acto seguido se detallarán qué requisitos funcionales cumplirá así como las ventajas que aportará este nuevo diseño. A continuación, se explicará el desarrollo del trabajo donde se podrá ver cómo se ha reestructurado el antiguo sistema de tutoría, la aplicación de un diseño orientado a objetos y los distintos paquetes y clases que lo conforman. Por último, se detallarán las conclusiones obtenidas durante el desarrollo del trabajo así como la implicación del trabajo aquí mostrado en futuros desarrollos.---ABSTRACT--- The following work shows the process that has been carried out in order to redesign an automatic tutoring system that can be integrated into virtual laboratories developed for supporting students’ practices in 3D virtual environments. The main goals of this redesign are the improvement of automatic tutoring system performance, making it more efficient and therefore allowing more students to perform a practice at the same time. Furthermore, this redesign allows the tutor to be integrated with other graphic engines with a relative low cost. Firstly, we begin with an introduction to the main concepts used in this work and some aspects concerning the related previous works to this automatic tutoring system redesign, such as the previous version of the tutoring system bound to OpenSim. Secondly, it will be detailed what functional requirements are met and what advantages this new tutoring system will provide. Next, it will be explained how this work has been developed, how the previous tutoring system has been restructured, how an object-oriented design is applied and the classes and packages derived from this design. Finally, it will be outlined the conclusions drawn in the development of this work as well as how this work will take part in future works.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

En los últimos años, la realización de compras y todo tipo de trámites a través de Internet o aspectos como la presencia online de las personas han ido aumentando paulatinamente y no parece que esta tendencia vaya a invertirse a corto plazo. Esto ha provocado que los requisitos de rendimiento y personalización exigidos a estos servicios se hayan visto incrementados notablemente. Cada vez más empresas y organizaciones de todo tipo señalan la importancia que tiene una gestión adecuada de las trazas de sus usuarios para tener éxito en el mercado digital. A partir de ellas se puede obtener información que redunda en incrementos de las capacidades de adaptación y del valor de las aplicaciones. En este sentido, los avances en el campo de la ciencia de los datos y en concreto, en el aprendizaje automático, han supuesto una pieza clave en el desarrollo de técnicas que permiten analizar y extraer el máximo conocimiento posible a partir de los grandes volúmenes de datos generados por la actividad de la Web. El objetivo de este trabajo es realizar un estudio de las fases, técnicas y metodologías que actualmente se aplican en el transcurso de los proyectos de ciencia de datos y en la disciplina del aprendizaje automático. Una vez se hayan identificado aquellas más utilizadas, se aplicarán a un ejemplo realista perteneciente al ámbito de la minería web. En concreto, se desarrollarán modelos predictivos por medio de diferentes algoritmos de aprendizaje automático (regresión logística o reglas de asociación, entre otros) que permitan modelar el comportamiento de los usuarios y predecir la página web que van a visitar a continuación. Para ello se hará uso del paquete estadístico R y de la plataforma de desarrollo RStudio. Posteriormente, se procederá a determinar los principales obstáculos que se derivan de la aplicación de las técnicas del aprendizaje automático así como a determinar el rendimiento que pueden llegar a alcanzar en la práctica. Así mismo se propondrán posibles aplicaciones de los resultados obtenidos con la finalidad de proporcionar valor de negocio dentro de un entorno real. Finalmente, se desarrollarán una serie de componentes de visualización web que permitan presentar de forma gráfica los resultados extraídos del análisis así como interactuar con los distintos modelos en tiempo real. A partir de todo lo anterior se establecerá una comparativa entre los distintos modelos producidos y se destacarán las ventajas e inconvenientes de cada uno de ellos. Con todo ello se presentarán unas recomendaciones finales que recojan los factores a tener en cuenta a la hora de aplicar estos algoritmos al caso concreto de los datos de uso web.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

Obtener la información deseada de la lista de ingredientes de un producto alimenticio no siempre es fácil. Muchas personas necesitan obtener datos muy concretos de una lista de ingredientes y en un tiempo razonable para poder decidir si ese producto es apto para su dieta. Personas con alergias, intolerancias, celíacos, diabéticos, vegetarianos o que sigan cualquier otro tipo de dieta o normativa como por ejemplo la normativa islámica (alimentos Halal) necesitan saber exactamente qué contiene lo que se van a comer. Además existe el problema del idioma, algunos productos de importación no tienen la lista de ingredientes traducida correctamente, suelen llevar una pegatina con los ingredientes en el idioma del país y ésta, cuando existe, no siempre tiene la información exacta. El problema del idioma se presenta también cuando estamos de viaje o viviendo en un país en el que no dominamos el idioma. Y por último también existen a menudo problemas físicos para leer los ingredientes. En la mayoría de los casos el tipo de letra es demasiado pequeño y en muchos la combinación de colores usada hace que la lectura sea difícil. Si además el consumidor tiene algún problema de visión la lectura de la lista de ingredientes se vuelve muy complicada o imposible. Por tanto, no siempre podemos llegar a la conclusión de si se puede o no consumir un producto por su lista de ingredientes. Para poder leer una lista de ingredientes sin importar donde nos encontremos o el idioma y el modo en que esté escrita, y ser capaces de obtener toda la información deseada en un idioma que entendamos y todo esto en pocos segundos necesitamos un Lector de Ingredientes. El lector de ingredientes que se describe en este proyecto tiene por objeto exactamente eso, leer automáticamente la lista de ingredientes de cualquier producto alimenticio y darnos la información deseada. Esta información puede simple “es apto”/”no es apto” para nuestra dieta. Esta idea nos obliga a diseñar una nueva manera de escribir y de leer la lista de ingredientes. Para que la lista de ingredientes pueda ser entendida por todo el mundo ésta debe estar escrita en un idioma universal. Se va a crear pues una Base de Datos de Ingredientes con todos los ingredientes posibles. Estos ingredientes vendrán identificados con un código y será este código el que aparezca en la nueva lista de ingredientes. De esta manera este código puede ser traducido al idioma deseado en el proceso de lectura de la lista de ingredientes. El fabricante, en el momento de crear la etiqueta, deberá elegir los ingredientes de la Base de Datos de Ingredientes, especificándolos lo más posible. Para poder leer la lista de ingredientes de forma automática necesitamos codificar la nueva lista de ingredientes (donde cada ingrediente ha sido sustituido por su código universal) con alguno de los métodos de identificación automática (RFID, códigos de barras, etc.). El método seleccionado ha sido QR-Code. QR-Code (Quick Response Code) es un código de dos dimensiones o de matriz con alta capacidad para el almacenamiento de datos. El sistema, una vez especificada la lista de ingredientes y obtenidos los códigos de estos ingredientes, generara el QR-Code correspondiente que será imprimido en la etiqueta del producto. Para leer esta lista de ingredientes codificada en QR-Code se utilizará la cámara del teléfono móvil. Muchos teléfonos modernos ya vienen con el lector de QR-Code preinstalado. El lector de QR-Code lee el código y lo decodifica, es decir nos daría la lista de ingredientes con los ingredientes codificados. Los programas del Lector de Ingredientes que también estarían instalados en el teléfono móvil traducen, con ayuda de la Base de Datos de Ingredientes, esta lista al idioma deseado. Además será posible predefinir nuestra dieta para que el lector de ingredientes nos diga si el producto es apto o no para ella. La Base de Datos de Ingredientes está diseñada de tal manera que cada usuario podrá instalarla en su teléfono en el idioma que desee. Para este proyecto se ha creado la Base de Datos de Ingredientes en inglés. La Base de Datos ha sido generada con Metakit, contiene 2885 ingredientes diferentes con sus códigos identificativos, nombre y otras informaciones sobre las dietas más habituales y solo ocupa 256 KB. También se han desarrollado programas para el prototipo: lectura de la Lista de Ingredientes, traducir esta lista a inglés o a español, comprobar si es apto para las dietas vegetarianas, dieta celíaca, halal y kosher. Estos programas están escritos en Tcl y en total ocupan 24 KB. Las medidas de tiempo de ejecución del prototipo para funciones que acceden a la BDI han dado como resultado tiempos inferiores al medio segundo. Estos datos de ocupación de memoria y de tiempo de ejecución demuestran la viabilidad del proyecto ya que el objetivo final es que la aplicación esté empotrada en teléfonos móviles.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

La escritura es una actividad psicomotora muy importante en el desarrollo infantil. Tanto es así que su correcto aprendizaje condicionará el futuro de una persona, pues estará presente en todo tipo de situaciones cotidianas. La disgrafía es el término utilizado para referirse a los problemas relacionados con la escritura, y se manifiesta cuando la escritura de un determinado sujeto es ilegible o lenta como resultado de un aprendizaje fallido de los procesos motores de la escritura. Estos problemas intentan resolverse durante el desarrollo infantil mediante diferentes pruebas que miden las capacidades visomotoras de los niños basándose en criterios de forma (número y posición correcta de trazos). Sin embargo, a lo largo de los años estos criterios han demostrado no ser totalmente precisos en la detección prematura de posibles casos de disgrafía. Por ello, en este proyecto se ha desarrollado una aplicación que ayuda a ampliar la fiabilidad de los test actuales, utilizando un criterio cinemático. Esta aplicación, desarrollada para una tableta Android, muestra al niño una serie de figuras que él debe copiar en la tableta haciendo uso de un lápiz óptico. Los trazos registrados por la aplicación son analizados para valorar aspectos como la fluidez, continuidad y regularidad, ampliando así la fiabilidad de los test actuales, lo que permite desechar falsos positivos y detectar irregularidades que antes no podían ser detectadas. La aplicación desarrollada ha sido validada con un total de ocho niños de cuatro años y siete meses de media de edad, confirmando que cumple con las expectativas planteadas. ABSTRACT. Writing is a very important psychomotor activity in child development because it will be present in all kinds of everyday situations; therefore its proper learning will determine the future of the individual. Dysgraphia is the term used to refer to the problems related to writing, and it takes place when a particular person’s writing is unreadable or slow-moving as a result of a failed learning of writing motor processes. These problems are usually detected by different tests that measure children’s visual motor abilities based on shape criteria (correct number and position of strikes). However, over the years these criteria haven’t proved to be completely accurate in the early detection of possible cases of dysgraphia. Therefore, in this project is presented an application that extends the reliability of current test, using a kinematic approach. This application, developed for an Android tablet, displays a series of figures that the child must copy to the tablet by using a stylus. Strokes recorded by the application are then analyzed to assess aspects such as fluidity, continuity and regularity, expanding the reliability of the current test, discarding false positives created by the conventional criteria and detecting irregularities that previously could not be detected. The developed application has been validated with a total of eight children about four years and seven months in average age, confirming that the application fulfills the initial expectations.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

A presente pesquisa tem como objetivo analisar a influência da fé religiosa no tratamento junto a pessoas com câncer, de maneira mais específica com câncer de cólonretal, a fim de coletar dados de um grupo mais homogêneo. A pesquisa de campo foi realizada no Ambulatório de Oncologia do Hospital de Clínicas da UNICAMP (Universidade Estadual de Campinas). A motivação para o aprofundamento deste estudo surgiu a partir de nossa atuação pastoral, quando confrontados com as diferentes reações dos pacientes em relação ao câncer, ao observar que a fé desempenhava um papel fundamental no tratamento e na luta contra a doença. Para a elaboração de nossa pesquisa recorreu-se aos estudos em relação ao câncer pelos médicos e psicanalistas Carl Simonton e Stefanie M. Simonton, Com a vida de Novo; Bernie S. Siegel, Amor, Medicina e Milagres. Para a análise e compreensão da fé buscamos como referencial o pensamento de Paul Tillich, em A Dinâmica da Fé e James Fowler, Estágios da fé. Procuramos ainda verificar as hipóteses levantadas de acordo com a compreensão da Psicanálise e Religião segundo Erich Fromm, Psicologia e Religião desenvolvida por Carl Gustav Jung e Psicoterapia e sentido da vida segundo Victor Frankl. O desenvolvimento deste projeto se dá em três momentos. No primeiro é realizada uma análise entre medicina e fé, a partir dos autores mencionados acima. No segundo são apresentados o resultado da pesquisa de campo. No terceiro reflete-se sobre os resultados da pesquisa de campo à luz dos referenciais teóricos em questão.(AU)

Relevância:

20.00% 20.00%

Publicador:

Resumo:

A presente pesquisa tem como objetivo analisar a influência da fé religiosa no tratamento junto a pessoas com câncer, de maneira mais específica com câncer de cólonretal, a fim de coletar dados de um grupo mais homogêneo. A pesquisa de campo foi realizada no Ambulatório de Oncologia do Hospital de Clínicas da UNICAMP (Universidade Estadual de Campinas). A motivação para o aprofundamento deste estudo surgiu a partir de nossa atuação pastoral, quando confrontados com as diferentes reações dos pacientes em relação ao câncer, ao observar que a fé desempenhava um papel fundamental no tratamento e na luta contra a doença. Para a elaboração de nossa pesquisa recorreu-se aos estudos em relação ao câncer pelos médicos e psicanalistas Carl Simonton e Stefanie M. Simonton, Com a vida de Novo; Bernie S. Siegel, Amor, Medicina e Milagres. Para a análise e compreensão da fé buscamos como referencial o pensamento de Paul Tillich, em A Dinâmica da Fé e James Fowler, Estágios da fé. Procuramos ainda verificar as hipóteses levantadas de acordo com a compreensão da Psicanálise e Religião segundo Erich Fromm, Psicologia e Religião desenvolvida por Carl Gustav Jung e Psicoterapia e sentido da vida segundo Victor Frankl. O desenvolvimento deste projeto se dá em três momentos. No primeiro é realizada uma análise entre medicina e fé, a partir dos autores mencionados acima. No segundo são apresentados o resultado da pesquisa de campo. No terceiro reflete-se sobre os resultados da pesquisa de campo à luz dos referenciais teóricos em questão.(AU)

Relevância:

20.00% 20.00%

Publicador:

Resumo:

O principal objetivo deste estudo foi identificar e analisar qual o impacto da tecnologia da informação (TI) na satisfação das pessoas em uma empresa pública. Este estudo pretendeu abordar o assunto de forma a concentrar-se na investigação, com um estudo de caso em uma empresa pública de saneamento ambiental da região do grande ABC paulista, o SEMASA, com o intuito de avaliar as mudanças nas rotinas operacionais dos diversos departamentos da empresa e o impacto causado pela TI na satisfação das pessoas envolvidas. Com base na literatura sobre trabalho e sociedade na era da globalização e empresas públicas, foram analisados inicialmente os motivos que podem contribuir para as pessoas buscarem ingressar na carreira pública. Esse estudo verificou a importância da adoção de ferramentas de tecnologia nos processos produtivos e na prestação de serviços das organizações. Verificou também, que estimular os funcionários de empresas públicas a criarem mecanismos para facilitarem seus trabalhos, através de ferramentas de TI atualizadas, pode ser benéfico, ao mesmo tempo em que pode proporcionar condições destes adquirirem novas capacitações profissionais com a aquisição de novos conhecimentos tecnológicos. Os resultados obtidos apontaram para um significativo aumento na satisfação das pessoas envolvidas sendo estas estimuladas a estarem em constante aperfeiçoamento, através da realização de novos treinamentos e cursos de tecnologia.(AU)

Relevância:

20.00% 20.00%

Publicador:

Resumo:

O principal objetivo deste estudo foi identificar e analisar qual o impacto da tecnologia da informação (TI) na satisfação das pessoas em uma empresa pública. Este estudo pretendeu abordar o assunto de forma a concentrar-se na investigação, com um estudo de caso em uma empresa pública de saneamento ambiental da região do grande ABC paulista, o SEMASA, com o intuito de avaliar as mudanças nas rotinas operacionais dos diversos departamentos da empresa e o impacto causado pela TI na satisfação das pessoas envolvidas. Com base na literatura sobre trabalho e sociedade na era da globalização e empresas públicas, foram analisados inicialmente os motivos que podem contribuir para as pessoas buscarem ingressar na carreira pública. Esse estudo verificou a importância da adoção de ferramentas de tecnologia nos processos produtivos e na prestação de serviços das organizações. Verificou também, que estimular os funcionários de empresas públicas a criarem mecanismos para facilitarem seus trabalhos, através de ferramentas de TI atualizadas, pode ser benéfico, ao mesmo tempo em que pode proporcionar condições destes adquirirem novas capacitações profissionais com a aquisição de novos conhecimentos tecnológicos. Os resultados obtidos apontaram para um significativo aumento na satisfação das pessoas envolvidas sendo estas estimuladas a estarem em constante aperfeiçoamento, através da realização de novos treinamentos e cursos de tecnologia.(AU)

Relevância:

20.00% 20.00%

Publicador:

Resumo:

O contexto atual das organizações é permeado por pressões, crises e incertezas, características da era da globalização, que requer capacidade humana para adaptações. O enfrentamento constante às situações instáveis necessita, em qualquer nível relacional, do que se tem nomeado resiliência. Atualmente, o uso deste termo vem se expandindo devido à sua aplicabilidade no estudo da capacidade humana de resistir à situação de intensa pressão. O termo resiliência foi desenvol vido a partir de estudos de população em estado de risco e vulnerabilidade, e atualmente tem pautado algumas discussões no campo organizacional. Com base neste conceito, objetiva -se, neste trabalho, estudar a resiliência em gestores de pessoas, em uma organização de grande porte com fins lucrativos, da área de Serviços em São Paulo, a partir da aplicação do Questionário do Índice de Resiliência: Adultos - Reivich-Shatté/Barbosa (2006). A metodologia de pesquisa adotada é de cunho exploratório e descritivo. O instrumento utilizado propiciou mensurar os sete fatores constitutivos da resiliência no comportamento humano, sendo eles: administração das emoções, controle de impulsos, otimismo com a vida, aná lise do ambiente, empatia, auto-eficácia e alcançar as pessoas. Os resultados obtidos demonstram que é possível estudar a resiliência em gestores de pessoas, a partir da utilização do instrumento proposto. Este trabalho permitiu também associar os fatores que constituem a resiliência a algumas competências essenciais necessárias para o gestor de pessoas realizar adequadamente suas atividades, sem negligenciar os aspectos de liderança associados à sua atuação.(AU)

Relevância:

20.00% 20.00%

Publicador:

Resumo:

O contexto atual das organizações é permeado por pressões, crises e incertezas, características da era da globalização, que requer capacidade humana para adaptações. O enfrentamento constante às situações instáveis necessita, em qualquer nível relacional, do que se tem nomeado resiliência. Atualmente, o uso deste termo vem se expandindo devido à sua aplicabilidade no estudo da capacidade humana de resistir à situação de intensa pressão. O termo resiliência foi desenvol vido a partir de estudos de população em estado de risco e vulnerabilidade, e atualmente tem pautado algumas discussões no campo organizacional. Com base neste conceito, objetiva -se, neste trabalho, estudar a resiliência em gestores de pessoas, em uma organização de grande porte com fins lucrativos, da área de Serviços em São Paulo, a partir da aplicação do Questionário do Índice de Resiliência: Adultos - Reivich-Shatté/Barbosa (2006). A metodologia de pesquisa adotada é de cunho exploratório e descritivo. O instrumento utilizado propiciou mensurar os sete fatores constitutivos da resiliência no comportamento humano, sendo eles: administração das emoções, controle de impulsos, otimismo com a vida, aná lise do ambiente, empatia, auto-eficácia e alcançar as pessoas. Os resultados obtidos demonstram que é possível estudar a resiliência em gestores de pessoas, a partir da utilização do instrumento proposto. Este trabalho permitiu também associar os fatores que constituem a resiliência a algumas competências essenciais necessárias para o gestor de pessoas realizar adequadamente suas atividades, sem negligenciar os aspectos de liderança associados à sua atuação.(AU)

Relevância:

20.00% 20.00%

Publicador: